Lezioni di TEORIA DEI SEGNALI.pdf

420
DIPARTIMENTO DI ENERGIA INGEGNERIA DELL’INFORMAZIONE E MODELLI MATEMATICI (DEIM) Lezioni Di Teoria Dei Segnali Giovanni Garbo, Giovanni Mamola, Stefano Mangione 29/12/2014

Transcript of Lezioni di TEORIA DEI SEGNALI.pdf

Page 1: Lezioni di TEORIA DEI SEGNALI.pdf

DIPARTIMENTO

DI

ENERGIA

INGEGNERIA DELL’INFORMAZIONE

E

MODELLI MATEMATICI

(DEIM)

Lezioni Di

Teoria Dei

Segnali Giovanni Garbo,

Giovanni Mamola,

Stefano Mangione

29/12/2014

Page 2: Lezioni di TEORIA DEI SEGNALI.pdf
Page 3: Lezioni di TEORIA DEI SEGNALI.pdf

SOMMARIO

Introduzione 1

CAPITOLO - 1 7

Richiami di Matematica 7

Premessa. ........................................................................... 7 1.1 -

L’integrazione alla Lebesgue. .......................................... 7 1.2 -

Misura associata a una classe di insiemi. ...................... 10 1.3 -

𝝈-Algebra di Borel ........................................................... 11 1.4 -

La misura di Lebesgue su ℝ .......................................... 11 1.5 -

La misura di Lebesgue su ℝ𝑵 ....................................... 12 1.6 -

Funzioni integrabili alla Lebesgue e relative proprietà.13 1.7 -

Funzioni a quadrato sommabile .................................... 16 1.8 - II Teorema di Lebesgue: ............................................................... 18

Spazi metrici. ................................................................... 18 1.9 -

Spazi vettoriali. .............................................................. 20 1.10 -

Spazi normati. ................................................................ 21 1.11 -

Forme bilineari, quadratiche, hermitiane. ................... 21 1.12 -

Riduzione di una forma hermitiana a forma canonica.23 1.13 -

Forme hermitiane semidefinite positive. ..................... 26 1.14 -

Prodotto scalare. ............................................................ 27 1.15 -

Vettori linearmente indipendenti. ................................ 30 1.16 -

CAPITOLO - 2 33

Rappresentazione Vettoriale dei Segnali 33

Premessa. ......................................................................... 33 2.1 -

Lo spazio dei segnali a energia finita. ........................... 34 2.2 -

Prodotto scalare ....................................................................... 35 Distanza .................................................................................... 35 Norma ....................................................................................... 36

Segnali linearmente indipendenti. ................................. 37 2.3 - Teorema 2.1 (di Gram) ................................................................. 37

Rappresentazione geometrica di un segnale. ............... 40 2.4 -

Angolo tra due segnali. ................................................... 44 2.5 -

Page 4: Lezioni di TEORIA DEI SEGNALI.pdf

2 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Approssimazione dei segnali nel sottospazio S𝒏. Teorema 2.6 -

della proiezione. ....................................................................... 46 Procedimento di ortonormalizzazione di Gram-Schmidt.2.7 -

................................................................................................... 50 Sviluppo di un segnale in serie di funzioni ortogonali. 52 2.8 -

CAPITOLO - 3 55

Segnali Periodici 55

Generalità. ....................................................................... 55 3.1 -

Serie di Fourier in forma esponenziale. ........................ 56 3.2 -

Forma trigonometrica della serie di Fourier. ................ 59 3.3 -

Segnali reali. .................................................................... 60 3.4 -

Proprietà della serie di Fourier. ..................................... 65 3.5 - Linearità ....................................................................................... 65 Inversione nel dominio del tempo ................................................ 66 Segnale coniugato ......................................................................... 66 Coefficienti coniugati .................................................................... 66 Traslazione nel dominio del tempo ............................................... 67 Traslazione nel dominio della frequenza ....................................... 67 Convoluzione nel dominio del tempo ........................................... 67 Convoluzione nel dominio della frequenza ................................... 68

Segnali bidimensionali. .................................................. 70 3.6 -

CAPITOLO - 4 73

Segnali a Energia Finita 73

Deduzione elementare della trasformata di Fourier. .... 73 4.1 -

La trasformata di Fourier di segnali ad energia finita. 74 4.2 -

La trasformata in 𝕷(ℝ). ........................................................... 75 La trasformata in 𝕷(ℝ) ∩ 𝕷𝟐(ℝ). ........................................... 75 La trasformata in 𝕷𝟐(ℝ). ........................................................ 78 Conclusioni .............................................................................. 81

Principali proprietà della trasformata di Fourier di un 4.3 -

segnale ...................................................................................... 82 Trasformata di Fourier di segnali reali. ................................. 83

Proprietà della trasformata di Fourier. .......................... 86 4.4 -

Linearità ................................................................................... 86 Simmetria ................................................................................. 87 Segnale coniugato .................................................................... 87 Trasformata coniugata ............................................................ 88

Page 5: Lezioni di TEORIA DEI SEGNALI.pdf

Introduzione 3

Traslazione nel dominio del tempo ........................................ 88 Traslazione nel dominio della frequenza ............................... 88 Cambiamento di scala ............................................................. 89 Derivazione nel dominio del tempo ....................................... 90 Derivazione nel dominio della frequenza .............................. 90 Convoluzione nel dominio del tempo .................................... 91 Convoluzione nel dominio della frequenza ........................... 94

Limitazioni dello spettro di ampiezza di un segnale. .. 98 4.5 -

Segnali bidimensionali. ................................................ 100 4.6 -

Linearità ................................................................................. 101 Traslazione nel dominio dello spazio e della frequenza ..... 101 Cambiamento di scala. .......................................................... 101 Convoluzione nel dominio dello spazio e della frequenza.. 102 Trasformazioni di variabili .................................................... 103

CAPITOLO - 5 107

Segnali a Potenza Finita 107

Cenni di teoria delle distribuzioni. .............................. 107 5.1 -

Esempi di distribuzioni. ............................................... 109 5.2 -

Distribuzioni regolari ............................................................ 109 Gradino unitario ..................................................................... 109 Delta di Dirac ......................................................................... 109 Pseudo funzione t-1 ................................................................ 110

Calcolo delle distribuzioni. .......................................... 111 5.3 -

Uguaglianza ........................................................................... 111 Somma .................................................................................... 111 Traslazione ............................................................................. 111 Derivata di una distribuzione ............................................... 112 Prodotto di una funzione per una distribuzione .................. 115 Distribuzioni a supporto limitato ......................................... 115

Convoluzione tra distribuzioni. ................................... 116 5.4 -

Formula di Poisson. ...................................................... 120 5.5 -

Trasformata di Fourier di una distribuzione. ............. 122 5.6 - Teorema 5.1 ............................................................................... 123

Trasformata di Fourier di distribuzioni a supporto 5.7 -

limitato.................................................................................... 124 Trasformate di Fourier di distribuzioni notevoli. ....... 125 5.8 -

Trasformata di una costante ................................................. 125 Trasformata della delta di Dirac ........................................... 125

Page 6: Lezioni di TEORIA DEI SEGNALI.pdf

4 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Trasformata della delta di Dirac traslata .............................. 125 Antitrasformata della delta di Dirac traslata ........................ 125 Trasformate delle funzioni seno e coseno ............................ 125 Trasformata di un segnale periodico .................................... 125 Trasformata della funzione segno ........................................ 126 Trasformata del gradino unitario .......................................... 127

Proprietà delle trasformate delle distribuzioni. .......... 127 5.9 -

Linearità ................................................................................. 127 Trasformata della convoluzione ........................................... 127 Derivazione nel dominio del tempo e della frequenza ........ 128 Traslazione nel dominio del tempo e della frequenza ........ 129

CAPITOLO - 6 133

Trasformazioni Lineari dei Segnali 133

Definizioni. Proprietà generali. .................................... 133 6.1 -

Studio nel dominio del tempo. ..................................... 135 6.2 -

Stabilità di un sistema lineare ...................................... 137 6.3 - Risposta impulsiva di trasformazioni lineari prive di 6.4 -

memoria .................................................................................. 138 Studio nel dominio della frequenza. ............................ 138 6.5 - Determinazione della risposta in frequenza di una 6.6 -

trasformazione LTI. ............................................................... 139 Trasmissione senza distorsione. Filtri ideali. ............. 143 6.7 -

CAPITOLO - 7 145

Caratterizzazione Energetica dei Segnali 145 Segnali a energia finita................................................................. 145

Densità spettrale di energia.......................................... 145 7.1 -

Funzione di autocorrelazione. ..................................... 149 7.2 -

Teorema di Wiener-Khinchine. ................................... 152 7.3 -

Funzioni di mutua correlazione. ................................. 153 7.4 - Segnali a potenza finita ............................................................... 155

Densità spettrale di potenza. ....................................... 155 7.5 -

Funzioni di correlazione. ............................................. 158 7.6 -

CAPITOLO - 8 163

Caratteristiche e Proprietà dei Segnali 163

Segnale analitico. Trasformata di Hilbert. .................. 163 8.1 -

Page 7: Lezioni di TEORIA DEI SEGNALI.pdf

Introduzione 5

Componenti del segnale a frequenze positive e negative.8.2 -

................................................................................................. 167 Segnali a banda e durata rigorosamente limitata. ...... 168 8.3 -

Proprietà dei segnali a banda rigorosamente limitata.169 8.4 -

Segnali passabasso................................................................. 169 Segnali passabanda ................................................................ 170

Banda e durata convenzionali. ..................................... 173 8.5 - Banda e durata quadratica o efficace ........................................... 173 Banda e durata sulla base dell’energia .......................................... 174

CAPITOLO - 9 177

Il Campionamento dei Segnali 177

Il teorema del campionamento. ................................... 177 9.1 -

Il sottospazio dei segnali passabasso. ......................... 179 9.2 -

Campionamento naturale. ............................................ 182 9.3 -

Campionamento istantaneo. ........................................ 185 9.4 -

Errori di ricoprimento spettrale (aliasing). ................. 187 9.5 -

Campionamento ideale dei segnali passabanda. ....... 189 9.6 -

Ricostruzione del segnale passabanda. ....................... 195 9.7 -

Campionamento del secondo ordine. ......................... 196 9.8 - Segnali passabasso. ..................................................................... 196 Segnali passabanda. ..................................................................... 198

CAPITOLO - 10 201

Segnali a tempo discreto 201

Segnali a tempo discreto. Energia e potenza specifica.10.1 -

................................................................................................. 201 Segnali periodici. ......................................................... 202 10.2 -

La trasformata discreta di Fourier ............................. 204 10.3 -

Segnali a potenza finita. .............................................. 209 10.4 - Proprietà della trasformata di Fourier di un segnale a 10.5 -

tempo discreto. ...................................................................... 211 Funzioni di correlazione e densità spettrali. ............. 213 10.6 -

- Segnali periodici. ................................................................. 213 - Segnali ad energia finita. ..................................................... 215 - Segnali a potenza finita. ...................................................... 217

CAPITOLO - 11 219

Trasformazioni lineari discrete 219

Page 8: Lezioni di TEORIA DEI SEGNALI.pdf

6 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Studio nel dominio del tempo ..................................... 219 11.1 -

Studio nel dominio della frequenza ........................... 223 11.2 -

CAPITOLO - 12 227

Valutazione Numerica della Trasformata di Fourier 227

Valutazione Numerica della Trasformata di Fourier di un 12.1 -

Segnale a tempo continuo ..................................................... 227 Troncamento del segnale. Finestre temporali. ......... 232 12.2 -

La trasformata discreta di Fourier. ............................ 235 12.3 -

CAPITOLO - 13 241

Richiami di Teoria della Probabilità 241

Lo spazio dei risultati. Gli eventi................................ 241 13.1 -

Lo spazio di probabilità. ............................................. 244 13.2 - Probabilità condizionate - Formula di Bayes - Teorema 13.3 -

delle probabilità composte. ................................................... 247

CAPITOLO - 14 253

Variabili Aleatorie 253

Variabili aleatorie monodimensionali. ....................... 253 14.1 -

Funzione di distribuzione di probabilità. .................. 254 14.2 -

- intervallo semiaperto a sinistra ........................................... 254 - semiretta d’origine destra aperta ........................................ 255 - intervallo chiuso ................................................................... 255 - punto isolato ........................................................................ 255 - intervallo aperto ................................................................... 256 - intervallo semiaperto a destra ............................................. 256

Proprietà della distribuzione di probabilità. ............. 256 14.3 -

- valori limite .......................................................................... 256 - monotonia e limitatezza ...................................................... 257 - continuità a destra ............................................................... 257 - limiti da sinistra ................................................................... 258 - numero di discontinuità ...................................................... 258

Densità di probabilità di una variabile aleatoria continua.14.4 -

................................................................................................. 260 Densità di probabilità di una variabile aleatoria discreta.14.5 -

................................................................................................. 261 Variabili aleatorie bidimensionali. Funzioni di 14.6 -

probabilità congiunte. ........................................................... 262

Page 9: Lezioni di TEORIA DEI SEGNALI.pdf

Introduzione 7

Funzioni di probabilità condizionate. ....................... 266 14.7 -

Funzioni di probabilità d’ordine superiore. .............. 267 14.8 -

CAPITOLO - 15 269

Funzioni di variabili aleatorie 269

Funzioni di una variabile aleatoria. ............................ 269 15.1 -

CAPITOLO - 16 275

Medie Statistiche 275

Valore medio di funzioni di variabili aleatorie. ......... 275 16.1 -

Momenti. ..................................................................... 276 16.2 -

Teorema della media. ................................................. 282 16.3 -

Funzione caratteristica. .............................................. 283 16.4 -

CAPITOLO - 17 288

Variabili Aleatorie Notevoli 288

Premessa. ..................................................................... 288 17.1 -

Distribuzione uniforme. ............................................. 288 17.2 -

Distribuzione esponenziale. ....................................... 289 17.3 -

Distribuzione di Laplace. ........................................... 290 17.4 -

Distribuzione normale o gaussiana. .......................... 290 17.5 -

Distribuzione di Rayleigh. .......................................... 295 17.6 -

Distribuzione di Bernoulli. ......................................... 296 17.7 -

Distribuzione binomiale. ............................................ 296 17.8 -

Distribuzione di Poisson. ........................................... 298 17.9 -

CAPITOLO - 18 302

Caratterizzazione Statistica dei Segnali 302

Segnale aleatorio. Funzioni di probabilità del primo 18.1 -

ordine. ..................................................................................... 302 Funzioni di probabilità del secondo ordine e funzioni di 18.2 -

probabilità condizionate........................................................ 306 Funzioni di probabilità d’ordine superiore. .............. 310 18.3 -

Segnali aleatori deterministici. ................................... 312 18.4 - Segnali dipendenti da una variabile aleatoria 18.5 -

monodimensionale ................................................................ 312 funzioni di probabilità del primo ordine. ............................. 312 funzioni di probabilità d’ordine superiore al primo. ........... 316

Segnali dipendenti da un vettore aleatorio. ............... 318 18.6 -

Page 10: Lezioni di TEORIA DEI SEGNALI.pdf

8 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Segnali distinti. Funzioni di probabilità congiunte. . 321 18.7 -

CAPITOLO - 19 325

Valori Medi, Stazionarietà ed Ergodicità 325

Medie statistiche. ........................................................ 325 19.1 -

Stazionarietà. ............................................................... 329 19.2 -

Medie temporali ed ergodicità. .................................. 332 19.3 - Ergodicità delle funzioni di probabilità del primo ordine.19.4 -

................................................................................................. 336

CAPITOLO - 20 341

Segnali Gaussiani 341

Variabili aleatorie congiuntamente gaussiane. ......... 341 20.1 - Funzione caratteristica di variabili aleatorie 20.2 -

congiuntamente gaussiane. .................................................. 341 Densità di probabilità di ordine inferiore.................. 344 20.3 -

Caratterizzazione degli elementi del vettore 𝒎 e della 20.4 -

matrice 𝜮. ............................................................................... 345 Segnali gaussiani. ....................................................... 346 20.5 -

Distribuzioni singolari. ............................................... 347 20.6 - Densità di probabilità del secondo ordine e condizionali.20.7 -

................................................................................................. 351 Trasformazioni lineari di segnali gaussiani. ............. 353 20.8 - Statistica della somma di variabili aleatorie indipendenti.20.9 -

................................................................................................. 356

CAPITOLO - 21 359

Caratterizzazione Energetica di Segnali a Tempo Continuo ...................... 359

Funzione di autocorrelazione. .................................... 359 21.1 -

la funzione di autocorrelazione normalizzata ...................... 362 la funzione di autocovarianza ............................................... 362 la funzione di autocovarianza normalizzata, o coefficiente di

autocorrelazione ..................................................................... 362 Densità spettrale di potenza. ...................................... 363 21.2 - Caratterizzazione dei segnali nel dominio della 21.3 -

frequenza. ............................................................................... 366 Segnali ciclostazionari. ............................................... 371 21.4 - Segnali distinti. Funzioni di correlazione e densità 21.5 -

spettrale incrociate. ................................................................ 376

Page 11: Lezioni di TEORIA DEI SEGNALI.pdf

Introduzione 9

CAPITOLO - 22 381 Caratterizzazione Energetica di Segnali Aleatori a Tempo Discreto 381

Funzione di autocorrelazione. .................................... 381 22.1 -

Densità spettrale di potenza....................................... 383 22.2 -

Caratterizzazione nel dominio della frequenza ........ 385 22.3 -

CAPITOLO - 23 389

Segnali Passabanda 389

Il rumore bianco. ......................................................... 389 23.1 -

-Rumore bianco passabasso. ..................................... 389 23.2 -

-Rumore bianco passabanda. ..................................... 390 23.3 -

Segnali aleatori passabasso. ....................................... 391 23.4 -

Segnali aleatori passabanda. ...................................... 393 23.5 -

Segnali gaussiani. ....................................................... 402 23.6 - Segnale gaussiano a banda stretta sovrapposto a un 23.7 -

segnale deterministico di tipo sinusoidale. .......................... 404

Page 12: Lezioni di TEORIA DEI SEGNALI.pdf
Page 13: Lezioni di TEORIA DEI SEGNALI.pdf

INTRODUZIONE

Una grandezza fisica, alla cui variazione in funzione di determina-

te variabili, quali, ad esempio, il tempo, le coordinate di un punto nel

piano o entrambe, è associata una certa quantità di informazione, costi-

tuisce un segnale.

La tensione o la corrente all'ingresso di un biporta, la pressione

acustica incidente sulla membrana di un microfono, l'intensità di un'im-

magine in un punto di uno schermo o la successione temporale di im-

magini quali quelle che si ottengono in una ripresa televisiva, sono

esempi di segnali.

A seconda degli aspetti che interessa mettere in evidenza è possi-

bile classificare i segnali secondo criteri diversi.

Una prima classificazione è di natura fenomenologica. Essa è ba-

sata sul tipo d'evoluzione subita dal segnale in funzione delle variabili

indipendenti. Su questa base i segnali si distinguono in segnali determi-

nati e segnali aleatori.

Limitandosi per il momento a considerare segnali che dipendono

esclusivamente dal tempo, un segnale si dice determinato quando i valo-

ri che esso assume in corrispondenza ad un qualsiasi istante sono cono-

sciuti esattamente.

Per contro i segnali aleatori sono quelli il cui andamento tempora-

le è imprevedibile, anche se è possibile determinarne alcune caratteristi-

che medie. Di conseguenza, mentre un segnale determinato è perfetta-

mente ripetibile, altrettanto non si può dire per un segnale aleatorio

giacché, per la sua natura casuale, esso può assumere forme diverse an-

che se viene osservato in esperimenti effettuati nelle medesime condi-

zioni.

Da quanto detto discende che, mentre è possibile rappresentare

un segnale determinato mediante una funzione (reale o complessa) di un

certo numero di variabili indipendenti, ciò non può essere fatto nel caso

di segnali aleatori, a meno che, una tale funzione, non venga costruita

sulla base di una manifestazione del segnale ottenuta “a posteriori”. Di

conseguenza mentre è possibile affrontare lo studio dei segnali determi-

nati utilizzando algoritmi matematici che presuppongono una rappre-

sentazione analitica del segnale, nel caso di segnali aleatori si deve ricor-

Page 14: Lezioni di TEORIA DEI SEGNALI.pdf

2 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

rere a metodologie di analisi di tipo statistico quali quelle basate sulla

Teoria della Probabilità.

Una seconda classificazione dei segnali è di natura morfologica.

Essa si basa sul carattere continuo o discreto dell'ampiezza del segnale o

dalle variabili da cui dipende la sua evoluzione.

Facendo riferimento a segnali dipendenti soltanto dal tempo, si

possono distinguere i segnali continui nel tempo (segnali a tempo conti-

nuo) e i segnali discreti nel tempo (segnali a tempo discreto).

Nel primo caso la variabile 𝑡 può assumere un qualsiasi valore

appartenente ad un assegnato intervallo di ampiezza finita o infinita (ve-

di Figura 1,a). Nel secondo caso la variabile indipendente è definita in

un insieme al più numerabile di valori {𝑡𝑛} con 𝑡𝑛−1 < 𝑡𝑛 < 𝑡𝑛+1 (vedi

Figura 1,b). Di norma gli istanti 𝑡𝑛 si succedono con regolarità cioè si ha:

(i.1) 𝑡𝑛 = 𝑛𝑇

cosicché l'insieme {𝑡𝑛} è completamente specificato individuando il pe-

riodo 𝑇 ed il campo di variabilità dell'indice 𝑛.

Se infine l'ampiezza del segnale può assumere un insieme finito o

al più numerabile di valori {𝑞𝑛} con 𝑞𝑛−1 ≤ 𝑞𝑛 ≤ 𝑞𝑛+1, il segnale si dice

Figura 1 - a) Segnale a tempo-continuo b) segnale a tempo discreto, c) segnale quantiz-

zato, d) segnale numerico.

Page 15: Lezioni di TEORIA DEI SEGNALI.pdf

Introduzione 3

discreto in ampiezza. Un segnale discreto in ampiezza può essere ulte-

riormente classificato in segnale quantizzato (vedi Figura 1,c) e in segna-

le numerico (vedi Figura 1,d) se esso è a tempo continuo o discreto.

Una terza classificazione è di natura energetica.

A tale scopo si definisce energia specifica associata ad un segnale

rappresentato da una funzione definita su tutto l'asse dei tempi a valori

generalmente complessi, la quantità:

(i.2) 𝐸 = ∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

La precedente è detta energia specifica in quanto essa rappresen-

terebbe l'energia effettivamente dissipata su una resistenza di valore uni-

tario che venisse attraversata da una corrente 𝑠(𝑡).

La potenza (media) specifica, in armonia con la (i.2), è definita dal

limite:

(i.3) 𝑃 = lim𝑇→∞

1

𝑇∫ |𝑠(𝑡)|2𝑑𝑡

𝑇

2

−𝑇

2

Le definizioni di energia specifica e di potenza specifica appena

fornite per i segnali a tempo continuo possono essere facilmente estese

ai segnali a tempo discreto. In tal caso l'energia e la potenza specifica del

segnale sono rispettivamente definite dalle:

(i.4) 𝐸 = 𝑇 ∑ |𝑠(𝑛𝑇)|2∞

𝑛=−∞

(i.5) 𝑃 = lim𝑁→∞

1

2𝑁 + 1∑ |𝑠(𝑛𝑇)|2𝑁

𝑛=−𝑁

Si noti che un segnale ad energia finita presenta una potenza spe-

cifica nulla; inoltre se la potenza specifica definita dalla (i.3) o dalla (i.5) è

maggiore di zero, le quantità a secondo membro delle (i.2) e (i.4) non

sono finite.

Ciò premesso, si definiscono segnali ad energia finita quei segnali

per cui l’energia specifica è finita. Si dicono a potenza finita i segnali per

i quali è finita e non nulla la potenza specifica.

Un'ulteriore classificazione è di natura dimensionale. Essa è basa-

ta sul numero di variabili indipendenti da cui il segnale dipende. Ad

Page 16: Lezioni di TEORIA DEI SEGNALI.pdf

4 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

esempio i segnali che dipendendo soltanto dal tempo sono monodimen-

sionali, mentre una immagine fissa e una sequenza di immagini in bianco

e nero sono esempi di un segnale rispettivamente bi e tridimensionale.

Esempio 1

Si consideri il segnale

𝑠(𝑡) = 𝑒𝑗2𝜋𝑓0𝑡

la sua energia specifica vale:

𝐸 = ∫ 𝑑𝑡∞

−∞

= ∞

Viceversa la sua potenza specifica vale:

𝑃 = lim𝑇→∞

1

2𝑇∫ |𝑒𝑗2𝜋𝑓0𝑡|2𝑑𝑡𝑇

−𝑇

= lim𝑇→∞

1

2𝑇∫ 𝑑𝑡𝑇

−𝑇

= 1

𝑠(𝑡) è pertanto un segnale a potenza finita.

Esempio 2

Si consideri il segnale

𝑠(𝑡) = 𝑒−𝛼|𝑡|

con 𝛼 costante.

A secondo del valore di 𝛼, 𝑠(𝑡) può essere classificato come segnale a ener-

gia o a potenza finita.

a) s(t) è un segnale a energia finita se l'integrale:

𝐸 = ∫ 𝑒−2𝛼|𝑡|𝑑𝑡∞

−∞

è finito. Poiché si ha:

𝐸 = lim𝑇→∞

∫ 𝑒−2𝛼|𝑡|𝑑𝑡𝑇

−𝑇

= lim𝑇→∞

{∫ 𝑒−2𝛼|𝑡|𝑑𝑡0

−𝑇

+∫ 𝑒−2𝛼|𝑡|𝑑𝑡𝑇

0

}

= lim𝑇→∞

{∫ 𝑒−2𝛼𝑡𝑑𝑡𝑇

0

+∫ 𝑒−2𝛼𝑡𝑑𝑡𝑇

0

} = lim𝑇→∞

1 − 𝑒−2𝛼𝑇

𝛼

il segnale è a energia finita se è 𝛼 > 0. In tal caso 𝐸 vale:

𝐸 =1

𝛼(𝛼 > 0)

b) 𝑠(𝑡) è un segnale a potenza finita se la quantità

𝑃 = lim𝑇→∞

1

𝑇∫ 𝑒−2𝛼|𝑡|𝑑𝑡

𝑇

2

−𝑇

2

= lim𝑇→∞

1 − 𝑒−𝛼𝑇

𝛼𝑇= lim

𝑇→∞𝑒−𝛼𝑇

converge a un valore non nullo.

Page 17: Lezioni di TEORIA DEI SEGNALI.pdf

Introduzione 5

Il segnale è a potenza finita se è 𝛼 = 0. In tal caso è

𝑃 = 1; (𝛼 = 0)

b) Per 𝛼 < 0 il segnale non è nè a potenza nè a energia finita.

Page 18: Lezioni di TEORIA DEI SEGNALI.pdf
Page 19: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1

RICHIAMI DI MATEMATICA

Premessa. 1.1 -

In questo capitolo si accenna brevemente, senza alcuna pretesa di

rigore, ai fondamenti dell’integrazione alla Lebesgue, alla teoria della mi-

sura degli insiemi, agli spazi vettoriali e alle forme quadratiche, con il so-

lo scopo di porre l’accento su alcuni aspetti che si ritengono importanti

per la comprensione di quanto esposto in questo testo, sia con riferi-

mento alla parte concernente all’analisi dei segnali determinati, sia a

quella riguardante i segnali aleatori.

L’integrazione alla Lebesgue. 1.2 -

In quel che segue, è richiamata l’integrazione alla Lebesgue. Essa

verrà applicata inizialmente a delle funzioni elementari, per poi estender-

la alla più ampia classe delle cosiddette funzioni misurabili.

Si prenda in considerazione l’insieme delle funzioni limitate defi-

nite su un intervallo chiuso e limitato A = [𝑎, 𝑏]. Per una qualsiasi fun-

zione appartenente a detto insieme si ha in pratica:

𝑓(𝐴) ⊆ [𝑚,𝑀] (1.2.1)

essendo rispettivamente 𝑚 ed 𝑀 l’estremo inferiore e l’estremo superio-

re della funzione considerata.

Si consideri inoltre, nell’insieme anzidetto, il sottoinsieme costi-

tuito dalle funzioni a valori non negativi, tali che, comunque scelto

I = [𝛼, 𝛽] ⊆ [𝑚,𝑀], l’immagine inversa di detto insieme secondo la fun-

zione 𝑓, cioè l’insieme 𝑓−1(I) dei punti 𝑥 ∈ A per cui risulta 𝛼 ≤ 𝑓(𝑥) ≤

𝛽, è costituito dall’unione di un numero finito di intervalli chiusi a due a

due disgiunti.

È noto che per calcolare l’integrale di una funzione alla Riemann

sul suo dominio, si procede alla scomposizione di quest’ultimo in un

certo numero d’intervalli chiusi in esso contenuti, privi a due a due di

punti interni in comune e tali che la loro unione coincida con [𝑎, 𝑏]. Si

costruisce così una partizione puntuale dell’intervallo [𝑎, 𝑏]. A partire da

Page 20: Lezioni di TEORIA DEI SEGNALI.pdf

8 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

detta partizione, si generano le seguenti somme inferiori e superiori di

Darboux:

{

𝑠𝑅 =∑𝑚𝑖(𝑥𝑖 − 𝑥𝑖−1)

𝑁

𝑖=1

;

𝑆𝑅 =∑𝑀𝑖(𝑥𝑖 − 𝑥𝑖−1)

𝑁

𝑖=1

;

(𝑎 = 𝑥0 < 𝑥1 <. . . . < 𝑥𝑁 = 𝑏) (1.2.2)

dove 𝑚𝑖 ed 𝑀𝑖 rappresentano rispettivamente l’estremo inferiore e

l’estremo superiore della funzione integranda nell’intervallo [𝑥𝑖−1, 𝑥𝑖].

Com’è noto l’integrale cerca-

to è, se esiste, (per la particolare

classe di funzioni prese in esame esi-

ste certamente) l’elemento di sepa-

razione delle due classi {𝑠𝑅} e {𝑆𝑅}

ottenute in corrispondenza a tutte le

possibili partizioni puntuali.

Volendo integrare la medesi-

ma funzione alla Lebesgue si scompone non già l’intervallo [𝑎, 𝑏], ma

l’intervallo [𝑚,𝑀] in 𝑁 intervalli del tipo, I𝑖 =]𝑦𝑖−1, 𝑦𝑖]. Poiché il generi-

co 𝑓−1(I𝑖) è costituito da un numero finito 𝑛𝑖 d’intervalli disgiunti con-

tenuti in [𝑎, 𝑏], indicando con ℎ𝑖,𝑗 la lunghezza del 𝑗-esimo di tali inter-

valli, (vedi Fig. 1.1) si possono definire le quantità:

{

𝑠𝐿 =∑𝑦𝑖−1∑ℎ𝑖,𝑗

𝑛𝑖

𝑗=1

𝑁

𝑖=1

;

𝑆𝐿 =∑𝑦𝑖∑ℎ𝑖,𝑗

𝑛𝑖

𝑗=1

𝑁

𝑖=1

;

(m=y0<y1<…<yN=M) (1.2.3)

E conseguentemente al variare delle possibili scelte degli I𝑖 due classi {𝑠𝐿}

e {𝑆𝐿}

È evidente che, comunque scelto un 휀 > 0, è sempre possibile far

sì che la misura del più ampio degli I𝑖 sia minore di 휀 cioè che risulti:

max{𝑦𝑖 − 𝑦𝑖−1, } < 휀, 1 ≤ 𝑖 ≤ 𝑁 (1.2.4)

Per le funzioni prese in esame, si avrà:

Fig. 1.1

Page 21: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 9

𝑆𝐿 − 𝑠𝐿 =∑(𝑦𝑖 − 𝑦𝑖−1)∑ℎ𝑖,𝑗

𝑛𝑖

𝑗=1

𝑁

𝑖=1

< 휀∑∑ℎ𝑖,𝑗

𝑛𝑖

𝑗=1

𝑁

𝑖=1

= 휀(𝑏 − 𝑎)

(1.2.5)

Poiché si può facilmente verificare che le famiglie {𝑠𝐿}, {𝑆𝐿} sono

separate, cioè che comunque scelto elemento di {𝑆𝐿} esso è maggiore o

uguale di ogni elemento della classe {𝑠𝐿}, dalla (1.2.5) consegue che le

due classi sono sono contigue.

Si definisce integrale alla Lebesgue della funzione, l’elemento di

separazione di dette classi.

È facile convincersi che, per l’insieme di funzioni considerate,

l’integrazione alla Lebesgue condurrebbe al medesimo risultato cui si sa-

rebbe pervenuti integrando secondo Riemann.

La tecnica di integrazione alla Lebesgue appena introdotta, tutta-

via è più generale di quella alla Riemann, nel senso che la classe delle

funzioni integrabili alla Lebesgue contiene quella delle funzioni integra-

bili in senso proprio alla Riemann.

La possibilità di ampliare l’insieme delle funzioni integrabili se-

condo Lebesgue discende dal fatto che la quantità ∑ ℎ𝑖,𝑗𝑛𝑖𝑗=1 , nella (1.2.3),

può essere interpretata come misura dell’insieme 𝑓−1(I𝑖). Infatti essa è

una somma di lunghezze di intervalli. Quindi indicando con 𝜇(𝑓−1(I𝑖))

la misura dell’immagine inversa di I𝑖 le (1.2.3) si riscrivono in forma più

compatta:

{

𝑠𝐿 =∑𝑦𝑖−1𝜇(𝑓

−1(I𝑖))

𝑁

𝑖=1

;

𝑆𝐿 =∑𝑦𝑖𝜇(𝑓−1(I𝑖))

𝑁

𝑖=1

;

(1.2.6)

Da queste ultime si evince che, se si introducesse una misura per

una classe di insiemi numerici più vasta di quella fino a ora implicita-

mente considerata, sarebbe conseguentemente possibile estendere a una

classe più ampia di funzioni la tecnica di integrazione appena introdotta.

Il concetto di misura di un insieme interviene anche nello studio

della teoria della probabilità, su cui si fonda l’analisi dei segnali aleatori.

In tale contesto si considerano insiemi la cui natura non è necessaria-

Page 22: Lezioni di TEORIA DEI SEGNALI.pdf

10 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

mente numerica. È pertanto utile per i nostri scopi accennare al proble-

ma della misura d’insiemi in termini più generali.

Misura associata a una classe di insiemi. 1.3 -

Dato un generico insieme U, finito o infinito, s’individui in esso

una classe 𝔉 di suoi sottoinsiemi tale che:

𝐴 ∈ 𝔉 ⇒ 𝑈 − 𝐴 ∈ 𝔉 (1.3.1)

Inoltre, se {A𝑖} è una qualunque famiglia al più numerabile di sottoin-

siemi appartenenti ad 𝔉 deve risultare:

{A𝑖∈I} ⊆ 𝔉 ⇒ ∪ A𝑖𝑖∈I

∈ 𝔉 (1.3.2)

Dove con I indichiamo l’insieme (al più numerabile) cui appar-

tengono gli indici utilizzati per gli insiemi della famiglia.

Innanzi tutto si osservi che le (1.3.1), (1.3.2) implicano che U ∈ 𝔉,

e ad 𝔉 deve appartenere anche l’insieme vuoto. Inoltre si verifica facil-

mente che anche l’intersezione di una famiglia al più numerabile di sot-

toinsiemi appartenenti ad 𝔉, deve appartenere ad 𝔉.

Data una generica famiglia di sottoinsiemi ℘ di U, da essa si può

sempre ottenere, aggiungendovi degli ulteriori sottoinsiemi di U, oppor-

tunamente scelti, una classe del tipo definito dalle (1.3.1), (1.3.2), che

contiene ℘, e viene chiamata classe minima generata dalla famiglia ℘.

Ad esempio dato un insieme A e la famiglia ℘ contenente soltanto

l’insieme B ⊂ A la classe minima verificante le (1.3.1), (1.3.2), generata da

℘ è la seguente:

℘ = {∅,B,A − B,A} (1.3.3)

Si dice che una classe non vuota che gode delle proprietà anzidet-

te è una 𝜎-algebra.

In altri termini, una famiglia non vuota di sottoinsiemi di U è una

𝜎-algebra se è chiusa rispetto a qualsiasi operazione elementare (unione,

intersezione complementazione) tra insiemi in essa contenuti, cioè se il

risultato di una tale operazione da luogo ad un insieme che appartiene

alla famiglia anche se gli insiemi su cui si opera sono un’infinità numera-

bile.

Dato un insieme U ed una 𝜎-algebra 𝔉 di suoi sottoinsiemi, si dice

che al generico insieme A ∈ 𝔉 di detta classe si è associata una misura

𝜇(A), ovvero che A è misurabile, se si è individuata un’applicazione, de-

Page 23: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 11

finita su 𝔉, a valori in ℝ+ ∪ {+∞}, che per ogni famiglia {A𝑛∈I} ⊆ 𝔉 al

più numerabile, tale che ∀𝑖 ≠ 𝑗 ∈ I ⇒ A𝑖 ∩ A𝑗 = ∅, soddisfa la proprietà:

𝜇 (∪ A𝑖𝑖∈I

) =∑𝜇(𝐴𝑖)

𝑖∈I

(1.3.4)

Dalle (1.3.1), (1.3.2) e dalla precedente derivano le seguenti con-

siderazioni di carattere generale:

- qualunque sia la misura introdotta, l’insieme U è misurabile in quan-

to appartiene alla classe 𝔉; la sua misura può eventualmente essere

infinita;

- l’insieme vuoto appartiene a 𝔉; esso quindi è misurabile ed ha misu-

ra nulla, se in 𝔉 esiste almeno un insieme non vuoto di misura di-

versa da zero;

- se A, B ∈ 𝔉 e A ⊆ B si ha certamente 𝜇(A) ≤ 𝜇(B).

𝝈-Algebra di Borel 1.4 -

Si prenda in considerazione l’insieme dei numeri reali ℝ e quello

contenente tutte le semirette di origine destra chiuse ]−∞, 𝑥] in esso

contenute, la classe minima che contiene detto insieme prende il nome

di 𝜎-algebra di Borel o classe di Borel e gli insiemi in essa contenuti vengono

detti Borelliani. A detta classe appartengono anche tutti i sottoinsiemi di

ℝ generabili mediante operazioni di intersezione, unione e complemen-

tazione su un numero finito o al più su un’infinità numerabile

d’intervalli chiusi o aperti, limitati e non.

Si è indotti a pensare che tale classe coincida con quella costituita

da tutti i possibili sottoinsiemi di ℝ. Ciò non è vero in quanto si possono

costruire insiemi, particolarmente astrusi, non ottenibili nel modo an-

zidetto. Tali insiemi, non appartenendo alla classe appena individuata,

non sono misurabili, ma non rivestono alcun interesse nelle applicazioni

pratiche.

La misura di Lebesgue su ℝ 1.5 -

Sulla classe di Borel appena introdotta si possono definire misure

diverse. La più importante è la cosiddetta misura di Lebesgue, che costitui-

sce una generalizzazione di quella normalmente associata ai segmenti.

Secondo Lebesgue, si assume come misura di un generico inter-

vallo aperto e limitato I =]𝑎, 𝑏[ il suo diametro, cioè si pone 𝜇(I) = 𝑏 −

𝑎.

Page 24: Lezioni di TEORIA DEI SEGNALI.pdf

12 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

È facile dedurre che, coerentemente con la (1.3.4), la misura da

associare a un insieme costituito da un punto isolato deve essere nulla.

Basta infatti osservare che dalla:

𝑎 < 𝑐 < 𝑏 ⇒]𝑎, 𝑏[=]𝑎, 𝑐[∪]𝑐, 𝑏[∪ {𝑐} (1.5.1)

discende:

𝜇(]𝑎, 𝑏[) − 𝜇(]𝑎, 𝑐[) − 𝜇(]𝑐, 𝑏[) = 𝜇({𝑐}) = 0 (1.5.2)

Dalle precedenti discende che un intervallo chiuso e limitato ha misura

uguale al suo corrispondente aperto.

Inoltre si può verificare facilmente che:

- la misura di un insieme finito o numerabile di punti è nulla;1

- un insieme aperto è misurabile, in quanto costituito da un’unione al

più numerabile di intervalli aperti a due a due disgiunti; la sua misura

può ovviamente non essere finita;

- un insieme chiuso è misurabile, in quanto tale è il suo complementa-

re che è un aperto.

La misura di Lebesgue su ℝ𝑵 1.6 -

La misura di Lebesgue appena introdotta per la classe di Borel

può essere facilmente estesa all’analoga classe di sottoinsiemi di ℝ𝑁. In-

dicando con 𝒙 = (𝑥1, 𝑥2, … , 𝑥𝑁) il generico punto di ℝ𝑁 e intendendo

come misura di un generico intervallo aperto e limitato:

I𝒂,𝒃 = {𝒙 | 𝑎1 < 𝑥1 < 𝑏1, 𝑎2 < 𝑥2 < 𝑏2, … , 𝑎𝑁 < 𝑥𝑁 < 𝑏𝑁} (1.6.1)

la quantità:

𝜇(I𝒂,𝒃) =∏(𝑏𝑖 − 𝑎𝑖)

𝑁

𝑖=1

(1.6.2)

convenendo che se almeno uno dei fattori della produttoria (1.6.2) è

nullo, indipendentemente dal fatto che un qualsiasi altro fattore di essa

possa risultare infinito, si deve assumere 𝜇(I𝒂,𝒃) = 0.

1 È opportuno osservare che è anche possibile costruire insiemi di misura nulla che hanno la po-

tenza del continuo.

Page 25: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 13

Funzioni integrabili alla Lebesgue e relative proprie-1.7 - tà.

Allo scopo di estendere la classe delle funzioni integrabili alla Le-

besgue è utile fornire la seguente definizione:

Definizione 1.1 (funzioni misurabili)

Una funzione definita su un insieme 𝐴 ⊆ ℝ𝑁 a valori in ℝ si dice misurabi-

le se per ogni 𝑦 ∈ ℝ, detto I𝑦 =] − ∞, 𝑦], il sottoinsieme 𝑓−1(I𝑦) di 𝐴, eventual-

mente vuoto, è misurabile essendo la sua misura non necessariamente finita.

************

Prendendo momentaneamente in esame soltanto funzioni misu-

rabili non negative, appare evidente che, se una tale funzione è misurabi-

le in un certo insieme A ⊆ ℝ𝑁, allora per essa si possono scrivere le

somme inferiori e superiori di Lebesgue definite dalla (1.2.6), essendo

misurabili gli insiemi, 𝑓−1(]𝑦𝑖 , 𝑦𝑖+1]), che compaiono in dette somme.

L’integrale alla Lebesgue di una funzione misurabile non negativa

𝑓:A ⊆ ℝ𝑁 → ℝ esteso a un generico sottoinsieme misurabile di A è, se

esiste finito, l’elemento di separazione delle classi {𝑠𝐿}, {𝑆𝐿}.

Nel caso in cui la funzione 𝑓:A ⊆ ℝ𝑁 → ℝ assuma anche valori

negativi, detto A1 il sottoinsieme di A in cui la funzione é non negativa e

A2 il suo complementare rispetto ad A, l’integrale alla Lebesgue della

funzione è definito come segue:

∫𝑓(𝒙)

A

𝑑𝒙 = ∫𝑓(𝒙)

A1

𝑑𝒙 − ∫|𝑓(𝒙)|

A2

𝑑𝒙 (1.7.1)

Si noti che nella (1.7.1), la variabile indipendente è eventualmente intesa

come multidimensionale.

La necessità della definizione (1.7.1) è legata al fatto che in gene-

rale, non è detto né che la funzione 𝑓(⋅) si mantenga limitata in A, né

che la misura di A sia finita. In sostanza, quindi, non è detto che

l’integrale sia proprio nel senso di Riemann, ovviamente, affinché la

funzione sia integrabile con integrale finito, entrambi gli addendi a se-

condo membro della (1.7.1) devono essere finiti.

A chiarimento della (1.7.1) si consideri il seguente esempio.

Page 26: Lezioni di TEORIA DEI SEGNALI.pdf

14 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Esempio 1.1

Sia data la funzione:

𝑓(𝑥) = {

0; 𝑥 < 0

(−1)⌊𝑥⌋

⌈𝑥⌉ + 1;  𝑥 ≥ 0

rappresentata in Fig.E 1.1. (⌊𝑥⌋ indica il più

grande intero ≤ 𝑥). Essa si può pensare come

somma di una infinità numerabile di funzioni

del tipo:

𝑓𝑛(𝑥) = {(−1)𝑛

𝑛 + 1; 𝑛 ≤ 𝑥 < 𝑛 + 1

0 ; altrove

ciascuna delle quali è integrabile con integrale 𝐼𝑛 =(−1)𝑛

𝑛+1. L’integrale della

funzione sul suo dominio è, se esiste, in virtù della linearità

dell’integrazione, dato dalla somma degli integrali 𝐼𝑛.

In sostanza quindi si è indotti a scrivere:

𝐼 = ∫ 𝑓(𝑥)∞

−∞

𝑑𝑥 = ∑ 𝐼𝑛

𝑛=0

a patto che la sommatoria che compare nella precedente conduca allo stesso

risultato indipendentemente dall’ordine seguito per calcolarla.

Si osservi che:

∑𝐼𝑛

𝑛=0

= ∑(−1)𝑛

𝑛 + 1

𝑛=0

intesa come serie, converge a log2. Tuttavia è altrettanto legittimo procedere

al calcolo della stessa somma come segue:

∑𝐼𝑛

𝑛=0

= ∑(𝐼2𝑘+1 + 𝐼4𝑘 + 𝐼2𝑘+2)

𝑛=0

in quanto al variare dell’indice 𝑘, vengono comunque considerati tutti gli

addendi che compaiono nel calcolo di 𝐼.

Esplicitando il generico addendo di tale somma, si ottiene:

𝐼2𝑘+1 + 𝐼4𝑘 + 𝐼2𝑘+2 =1

4𝑘+3+

1

4𝑘+1−

1

2𝑘+2>

1

4𝑘+4+

1

4𝑘+4−

1

2𝑘+2= 0

pertanto la ∑ (𝐼2𝑘+1 + 𝐼4𝑘 + 𝐼4𝑘+2)∞

𝑘=0, intesa come serie, è a termini positivi.

Essa è anche convergente, come si deduce facilmente osservando che la suc-

cessione cui essa è associata tende a 0 come 1𝑛2⁄ . La sua somma è quindi

Fig.E 1.1

Page 27: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 15

superiore a una qualunque sua ridotta ed in particolare anche a quella di or-

dine 0 che vale 5

6> log2.

Si conclude pertanto che l’integrale alla Lebesgue della funzione consi-

derata non esiste.

D’altro canto ci si rende facilmente conto che la funzione in questione

non soddisfa la condizione (1.7.1). Il problema non si sarebbe posto se la se-

rie ∑ 𝐼𝑛∞𝑛=0 fosse stata assolutamente convergente. Condizione questa che,

come è noto, occorre e basta per assicurare la convergenza alla stesso limite

della serie indipendentemente dall’ordine seguito per sommarla.

La condizione di assoluta convergenza equivale a quella che entrambe le

serie dei termini positivi e negativi, estratte dalla serie originaria, siano con-

vergenti.

È altrettanto interessante osservare che l’integrale della stessa funzione

alla Riemann esiste e vale log2, in quanto l’integrale improprio alla Rie-

mann, come è noto, è definito come segue:

∫ 𝑓(𝑥)∞

0

𝑑𝑥 = lim𝑎→∞

∫ 𝑓(𝑥)𝑎

0

𝑑𝑥

e quindi l’ordine da seguire nel calcolo della somma di cui sopra è chiara-

mente definito.

Un altro esempio di funzione integrabile secondo Riemann, ma non inte-

grabile secondo Lebesgue è la funzione sin 𝑥

𝑥 che ricorrerà molto spesso in

questo testo.

In generale si può affermare che ogni funzione integrabile secon-

do Riemann, in senso proprio, è certamente integrabile secondo Le-

besgue, e che seguendo le due procedure si perviene al medesimo risul-

tato, come pure si perviene allo stesso risultato in tutti i casi in cui si ha

a che fare con funzioni che siano assolutamente integrabili secondo

Riemann anche non in senso proprio.

A titolo di esempio si consideri la funzione di Dirichlet:

ℎ(𝑥) = {0;      𝑥 ∈ ℚ ∩ [0,1];

1;  𝑥 ∈ (ℝ − ℚ) ∩ [0,1]; (1.7.2)

questa funzione non è integrabile alla Riemann. Essa risulta invece inte-

grabile alla Lebesgue e l’integrale esteso al suo dominio vale 1, come si

verifica facilmente visto che l’insieme ℚ dei numeri razionali, in quanto

numerabile, ha misura nulla, e quindi anche i suoi sottoinsiemi hanno

misura nulla.

Page 28: Lezioni di TEORIA DEI SEGNALI.pdf

16 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Una funzione a valori complessi si dirà integrabile alla Lebesgue

se tali risultano la sua parte reale e la sua parte immaginaria.

Due funzioni misurabili, definite sullo stesso insieme misurabile

E, si dicono uguali quasi ovunque (q.o.), se il sottoinsieme di E in cui es-

se assumono valori diversi ha misura nulla.

Due funzioni definite su uno stesso insieme che risultino quasi

ovunque uguali hanno lo stesso integrale alla Lebesgue.

Una funzione si dice sommabile su un insieme E, o anche che ap-

partiene a 𝔏(E) se risulta:

∫|𝑓(𝑥)|𝑑𝑥E

< ∞ (1.7.3)

Si può mostrare che la sommabilità su un insieme è condizione

necessaria e sufficiente affinché sullo stesso insieme la funzione sia inte-

grabile con integrale finito.

Se la funzione 𝑓(𝑥) è sommabile su E, e se su E q.o. |𝑔(𝑥)| ≤

|𝑓(𝑥)| anche 𝑔(𝑥) è sommabile su E.

Per una funzione integrabile reale o complessa vale la disugua-

glianza:

|∫𝑓(𝑥)𝑑𝑥𝐸

| ≤ ∫|𝑓(𝑥)|𝑑𝑥E

(1.7.4)

Funzioni a quadrato sommabile 1.8 -

In generale si dice che una funzione 𝑓(𝑥) ∈ 𝔏𝑝(E) con 𝑝 ∈ ℕ se

risulta:

∫|𝑓(𝑥)|𝑝𝑑𝑥E

< ∞ (1.8.1)

Se la precedente vale per 𝑝 = 2, si dice che la funzione è a quadra-

to sommabile su E.

Siano 𝑓1(𝑥), 𝑓2(𝑥) due funzioni generalmente complesse apparte-

nenti a 𝔏2(E). In ogni punto di detto insieme risulta |𝑓1(𝑥) − 𝑓2(𝑥)|2 ≥

0 che implica 𝑓1(𝑥)𝑓2∗(𝑥) + 𝑓2(𝑥)𝑓1

∗(𝑥) ≤ |𝑓1(𝑥)|2 + |𝑓2(𝑥)|

2. Si ha quin-

di:

Page 29: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 17

|𝑓1(𝑥) + 𝑓2(𝑥)|2

= |𝑓1(𝑥)|2 + |𝑓2(𝑥)|

2 + 𝑓1(𝑥)𝑓2∗(𝑥) + 𝑓2(𝑥)𝑓1

∗(𝑥)

≤ 2(|𝑓1(𝑥)|2 + |𝑓2(𝑥)|

2)

(1.8.2)

L’ultimo membro della (1.8.2) è sommabile su E, tale deve quindi essere

anche il primo membro. Integrando termine a termine si ottiene:

∫|𝑓1(𝑥) + 𝑓2(𝑥)|2𝑑𝑥

E

≤ 2∫(|𝑓1(𝑥)|2 + |𝑓2(𝑥)|

2)𝑑𝑥 < ∞E

(1.8.3)

Quest’ultimo risultato consente di affermare che la somma di due fun-

zioni a quadrato sommabile è ancora una funzione a quadrato sommabi-

le.

Più in generale la combinazione lineare di funzioni a quadrato

sommabile è ancora una funzione a quadrato sommabile.

Se 𝑓(⋅), 𝑔(⋅) sono due funzioni a quadrato sommabile su uno

stesso insieme, la funzione prodotto è sommabile e vale la disuguaglianza

di Schwarz.

∫|𝑓(𝑥)𝑔(𝑥)|E

𝑑𝑥 ≤ (∫|𝑓(𝑥)|2𝑑𝑥𝐸

)

1

2

(∫|𝑔(𝑥)|2𝑑𝑥𝐸

)

1

2

(1.8.4)

La precedente è banalmente verificata se almeno una delle due funzioni

è quasi ovunque nulla.

Premesso che, se 𝑎, 𝑏 sono due reali non negativi, da (𝑎 − 𝑏)2 ≥

0 segue 𝑎𝑏 ≤𝑎2

2+

𝑏2

2. Se nessuna delle due funzioni è nulla q.o., si può

porre:

𝑎 =|𝑓(𝑥)|

(∫ |𝑓(𝑥)|2𝑑𝑥𝐸

)1

2

, 𝑏 =|𝑔(𝑥)|

(∫ |𝑔(𝑥)|2𝑑𝑥𝐸

)1

2

(1.8.5)

quindi vale la disuguaglianza:

|𝑓(𝑥)𝑔(𝑥)|

(∫ |𝑓(𝑥)|2𝑑𝑥𝐸

)1

2(∫ |𝑔(𝑥)|2𝑑𝑥𝐸

)1

2

≤|𝑓(𝑥)|2

2∫ |𝑓(𝑥)|2𝑑𝑥E

+|𝑔(𝑥)|2

2∫ |𝑔(𝑥)|2𝑑𝑥E

(1.8.6)

che integrata membro a membro su E conduce alla (1.8.4).

Page 30: Lezioni di TEORIA DEI SEGNALI.pdf

18 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Nel caso in cui quasi ovunque risulti 𝑓(𝑥) = 𝑘𝑔(𝑥), (𝑘 ∈ ℂ) si ve-

rifica facilmente che la (1.8.4) vale come uguaglianza.

Per le funzioni sommabili vale inoltre il seguente teorema

II Teorema di Lebesgue2:

Sia {𝑓𝑛(𝑥)}𝑛=1∞ una successione di funzioni sommabili su di un insieme mi-

surabile 𝐸 che converge q.o. ad una funzione 𝑓(𝑥).

Se esiste una 𝜑(𝑥) sommabile su 𝐸, tale che ∀𝑛 risulti |𝑓𝑛(𝑥)| ≤ 𝜑(𝑥),

allora:

- 𝑓(𝑥) è sommabile su 𝐸;

- si ha:

lim𝑛→∞

∫𝑓𝑛(𝑥)𝑑𝑥E

=∫ lim𝑛→∞

𝑓𝑛(𝑥)𝑑𝑥E

= ∫𝑓(𝑥)E

𝑑𝑥 (1.8.7)

***********

Il teorema appena enunciato è di particolare importanza perché

fornisce delle condizioni sotto le quali è certamente consentito invertire

il passaggio al limite con l'integrazione.

Spazi metrici. 1.9 -

Si dice che su un generico insieme A si è indotta una metrica, se

su di esso si è definita un’applicazione che a ogni elemento (𝑥, 𝑦) di

A × A associa un numero reale non negativo, indicato con 𝑑(𝑥, 𝑦), che

soddisfa le proprietà:

{

𝑎) 𝑑(𝑥, 𝑦) = 𝑑(𝑦, 𝑥) ;

𝑏) 𝑑(𝑥, 𝑦) = 0   ⇔  𝑥 = 𝑦;

𝑐) 𝑑(𝑥, 𝑦) ≤ 𝑑(𝑥, 𝑧) + 𝑑(𝑦, 𝑧);   

∀𝑥, 𝑦, 𝑧 ∈ A (1.9.1)

Si osservi che il concetto di metrica, in sostanza, costituisce una

generalizzazione di quello geometrico di distanza tra punti di uno spazio

euclideo. La (1.9.1)c è detta disuguaglianza triangolare per la sua ovvia

interpretazione geometrica.

Se all'insieme A si associa una metrica, s’individua uno spazio me-

trico. Si osservi che metriche diverse definite su uno stesso insieme in-

dividuano spazi metrici diversi.

2 Per la dimostrazione vedi F.G. Tricomi: Istituzioni di analisi superiore, pag. 94 e sgg, Edizio

ni CEDAM Padova 1964.

Page 31: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 19

È importante osservare che l'avere associato a un insieme una

metrica comporta la possibilità di generalizzare concetti quale quello di

limite e di continuità.

Ad esempio se si considera una successione 𝑥𝑛 di elementi di un

insieme X dotato di metrica, si dice che detta successione converge, ri-

spetto alla metrica 𝑑, a un elemento 𝑥 ∈ X se, comunque scelto un reale

positivo 휀, esiste in corrispondenza ad esso un indice 𝑛 dal quale in poi

si ha:

𝑑(𝑥𝑛 , 𝑥) < 휀; (1.9.2)

È noto che, per le successioni di numeri reali, una condizione ne-

cessaria e sufficiente alla convergenza è data dal teorema di Cauchy.

Detto teorema non è in generale esportabile al caso di uno spazio

metrico. Non è, infatti, detto che una successione di Cauchy di elementi

dello spazio metrico sia convergente, non fosse altro in quanto a priori

non è detto che il limite della successione appartenga allo spazio in cui la

successione è stata definita.

Esempio 1.2

Si consideri l'insieme delle funzioni appar-

tenenti a 𝔏(ℝ) a cui si associa la metrica

𝑑(𝑓1 , 𝑓2) = ∫ |𝑓1(𝑥) − 𝑓2(𝑥)|𝑑𝑥∞

−∞

In detto insieme si consideri il sottoinsieme

A delle funzioni continue. In [−1,1] si consi-

deri la successione il cui generico elemento (vedi Fig.E 1.2) vale:

𝑓𝑛(𝑥) =

{

1; |𝑥| < 1 −

1

𝑛

𝑛(1 − |𝑥|); 1 −1

𝑛≤ |𝑥| ≤ 1

0; |𝑥| > 1

;

Detta successione è di Cauchy. Infatti ∀휀 > 0, 𝑝 > 𝑞 > ⌈1⌉ risulta:

𝑑(𝑓𝑝, 𝑓𝑞) = ∫ |𝑓𝑝(𝑥) − 𝑓𝑞(𝑥)|𝑑𝑥∞

−∞

= ∫ 𝑓𝑝(𝑥)𝑑𝑥∞

−∞

−∫ 𝑓𝑞(𝑥)𝑑𝑥∞

−∞

=1

𝑞−1

𝑝< 휀

Tale successione non è tuttavia convergente in A. Infatti essa in 𝔏(ℝ) con-

verge alla funzione ⊓(𝑥

2) dove:

Fig.E 1.2

Page 32: Lezioni di TEORIA DEI SEGNALI.pdf

20 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

⊓ (𝑥) = {1; |𝑥| ≤

1

2

0; |𝑥| >1

2

;

Infatti per ∀휀 > 0, 𝑛 > ⌈1⌉ implica:

𝑑 (𝑓𝑛(𝑥),⊓ (𝑥

2)) = ∫ ⊓ (

𝑥

2) 𝑑𝑥

−∞

−∫ 𝑓𝑛(𝑥)𝑑𝑥∞

−∞

=1

𝑛< 휀

La funzione ⊓(𝑥

2) non è continua quindi non appartiene all'insieme A

che quindi non è completo rispetto alla metrica considerata.

Spazi vettoriali. 1.10 -

Sia dato un insieme X, i cui elementi vengono denominati vettori.

Si dice che X ha la struttura di spazio vettoriale se:

è un gruppo commutativo rispetto a una legge di composizione interna,

che verrà indicata con il simbolo +;

esiste un campo 𝔽, i cui elementi sono detti scalari, e una legge di com-

posizione detta prodotto per scalari che soddisfa le proprietà:

{

𝑎) ∀𝜆 ∈ 𝔽  , 𝒙 ∈ X ⇒ 𝜆𝒙 ∈ X;

𝑏) ∀𝜆1   ,  𝜆2 ∈ 𝔽  , 𝒙 ∈ X ⇒ 𝜆1(𝜆2𝒙) = (𝜆1𝜆2)𝒙;

𝑐) ∀𝜆1   ,  𝜆2 ∈ 𝔽  , 𝒙 ∈ X ⇒ (𝜆1 + 𝜆2) 𝒙 = 𝜆1𝒙 + 𝜆2𝒙;

𝑑) ∀𝒙1   ,  𝒙2 ∈ X  , 𝜆 ∈ 𝔽 ⇒ 𝜆  (𝒙1 + 𝒙2) = 𝜆𝒙1 + 𝜆𝒙2;

𝑒)  ∀𝒙 ∈ X ⇒ 1 𝒙 = 𝒙     ;   0 𝒙 = 𝐨;

(1.10.1)

Dove 𝐨, detto vettore nullo o origine, indica l'elemento neutro rispetto

alla legge di composizione interna definita su X; 1 e 0 indicano rispetti-

vamente l'elemento neutro rispetto al prodotto e rispetto alla somma nel

campo 𝔽.

Si ricorda che un insieme X ha la struttura di gruppo commutati-

vo rispetto a una data legge di composizione interna se, comunque scelti

due suoi elementi, si ha:

{

𝑎) 𝒙1 + 𝒙2 = 𝒙2 + 𝒙1 ∈ X;

𝑏) 𝒙1 + (𝒙2 + 𝒙3) = (𝒙1 + 𝒙2) + 𝒙3;

𝑐) ∃   𝒐 ∈ X | ∀𝒙 ∈ X ⇒ 𝒙 + 𝐨 = 𝒙;

𝑑) ∀ 𝒙 ∃   (−𝒙)|𝒙 + (−𝒙) = 𝐨;

(1.10.2)

In quel che segue il campo 𝔽 si identificherà, salvo avviso contra-

rio, con il campo ℂ dei numeri complessi.

Page 33: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 21

Spazi normati. 1.11 -

Sia dato uno spazio vettoriale X si dice che esso è normato, se si è

individuata una applicazione, denotata con ‖𝒙‖, definita su X a valori

nell'insieme ℝ+ dei reali non negativi che ∀ 𝒙, 𝒚 ∈ X soddisfa le proprie-

tà:

{

𝑎) ‖𝒙‖ ≥ 0, ‖𝒙‖ = 0 ⇔ 𝒙 = 𝐨;

𝑏) ‖𝜆𝒙‖ = |𝜆|‖𝒙‖;

𝑐) ‖𝒙 + 𝒚‖ ≤ ‖𝒙‖ + ‖𝒚‖; (1.11.1)

Si osservi che uno spazio normato è implicitamente anche uno

spazio metrico in quanto si può assumere come distanza tra due elemen-

ti di esso la norma dell'elemento differenza cioè:

𝑑(𝒙, 𝒚) = ‖𝒙 − 𝒚‖; (1.11.2)

Uno spazio normato si dice completo, o anche spazio di Banach,

se comunque scelta una successione di Cauchy di suoi elementi, essa

converge a un elemento dello spazio, o, che è lo stesso, se in detto spa-

zio la condizione di Cauchy è necessaria e sufficiente alla convergenza di

una successione di suoi elementi.

Forme bilineari, quadratiche, hermitiane. 1.12 -

Una polinomio a valori complessi nelle 2𝑛 variabili generalmente

complesse 𝑥1, 𝑥2, … , 𝑥𝑛 , 𝑦1, 𝑦2, … , 𝑦𝑛 del tipo:

𝑄(𝑥1, 𝑥2, … , 𝑥𝑛 , 𝑦1 , 𝑦2, … , 𝑦𝑛) =∑∑𝑎𝑖𝑗𝑥𝑖𝑦𝑗

𝑛

𝑗=1

𝑛

𝑖=1

(1.12.1)

viene chiamata forma bilineare.

Introducendo i vettori:

𝒙 = [

𝑥1⋮𝑥𝑛] ; 𝒚 = [

𝑦1⋮𝑦𝑛] (1.12.2)

e la matrice a coefficienti generalmente complessi

𝐴 = [

𝑎11 𝑎12 … 𝑎1𝑛𝑎21 𝑎22 … 𝑎2𝑛… … … …𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛

] (1.12.3)

la (1.12.1) si può riscrivere nella seguente forma matriciale:

Page 34: Lezioni di TEORIA DEI SEGNALI.pdf

22 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑄(𝒙, 𝒚) = 𝒙𝑇𝐴𝒚 (1.12.4)

Per forma quadratica nelle 𝑛 variabili complesse 𝑥1, 𝑥2…𝑥𝑛 si in-

tende un polinomio omogeneo del tipo:

𝑄(𝒙) = 𝒙𝑇𝐴𝒙 =∑∑𝑎𝑖𝑗𝑥𝑖𝑥𝑗

𝑛

𝑗=1

𝑛

𝑖=1

=∑∑1

2(𝑎𝑖𝑗 + 𝑎𝑗𝑖)𝑥𝑖𝑥𝑗

𝑛

𝑗=1

𝑛

𝑖=1

(1.12.5)

Dall'ultimo membro della precedente si evince che ad una forma

quadratica si può sempre associare una e una sola matrice simmetrica. Se

detta matrice è reale e se 𝒙 ∈ ℝ𝑛 la 𝑄(𝒙) è una forma quadratica reale.

Data una matrice 𝐴 hermitiana, cioè tale che risulti:

𝑎𝑖𝑗 = 𝑎𝑗𝑖∗ 𝑖, 𝑗 = 1,2, … , 𝑛 (1.12.6)

e definito 𝒙 secondo la (1.12.2) il polinomio:

𝑄(𝒙) =∑∑𝑎𝑖𝑗𝑥𝑖∗𝑥𝑗

𝑛

𝑗=1

𝑛

𝑖=1

(1.12.7)

nelle 𝑛 variabili complesse 𝑥1, 𝑥2…𝑥𝑛 è una forma hermitiana.

Indicato con 𝒙† il trasposto coniugato del vettore 𝒙, la 𝑄(𝒙) si

può porre nella forma matriciale: 𝑄(𝒙) = 𝒙†A𝒙.

Per una forma hermitiana 𝑄(𝒙) si ha:

𝑄∗(𝒙) = ∑∑𝑎𝑖𝑗∗ 𝑥𝑖𝑥𝑗

𝑛

𝑗=1

𝑛

𝑖=1

=∑∑𝑎𝑗𝑖𝑥𝑖𝑥𝑗∗

𝑛

𝑗=1

𝑛

𝑖=1

= 𝑄(𝒙) (1.12.8)

essa assume quindi valori reali per ogni 𝒙 appartenente a ℂ𝑛.

ponendo:

𝐴 = 𝐴𝑅 + 𝑗𝐴𝐼 (1.12.9)

con 𝐴𝑅 e 𝐴𝐼 matrici reali e analogamente:

𝑥𝑖 = 𝑢𝑖 + 𝑗𝑣𝑖 ,   𝑖 = 1,2…𝑛 (1.12.10)

la forma hermitiana 𝑄(𝑥) diventa:

𝑄(𝒙) = (𝒖𝑇 − 𝑗𝒗𝑇)(𝐴𝑅 + 𝑗𝐴𝐼)(𝒖 + 𝑗𝒗)

= (𝒖𝑇𝐴𝑅𝒖 − 𝒖𝑇𝐴𝐼𝒗 + 𝑣

𝑇𝐴𝑅𝒗 + 𝒗𝑇𝐴𝐼𝒖) +

𝑗(𝒖𝑇𝐴𝑅𝒗 + 𝒖𝑇𝐴𝐼𝒖 − 𝒗

𝑇𝐴𝑅𝒖 + 𝒗𝑇𝐴𝐼𝒗)

(1.12.11)

Page 35: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 23

Poiché, tenendo conto della (1.12.8), e valendo la condizione

(1.12.6) sussistono le uguaglianze:

𝐴𝑅𝑇 = 𝐴𝑅; 𝐴𝐼

𝑇 = −𝐴𝐼 (1.12.12)

da cui discendono le ulteriori identità:

{

−𝒖𝑇𝐴𝐼𝒗 + 𝒗

𝑇𝐴𝐼𝒖 = −(𝒗𝑇𝐴𝐼𝑇𝒖)𝑇 + 𝒗𝑇𝐴𝐼𝒖

= (𝒗𝑇𝐴𝐼𝒖)𝑇 + 𝒗𝑇𝐴𝐼𝒖 = 𝒗

𝑇𝐴𝐼𝒖𝒗 + 𝒗𝑇𝐴𝐼𝒖 = 2𝒗𝑇𝐴𝐼𝒖;

𝒖𝑇𝐴𝑅𝒗 − 𝒗𝑇𝐴𝑅𝒖 = (𝒗

𝑇𝐴𝑅𝑇𝒖)𝑇 − 𝒗𝑇𝐴𝑅𝒖

= (𝒗𝑇𝐴𝑅𝒖)𝑇 − 𝒗𝑇𝐴𝑅𝒖 = 𝒗

𝑇𝐴𝑅𝒖 − 𝒗𝑇𝐴𝑅𝒖 = 0;

𝒖𝑇𝐴𝐼𝒖 = (𝒖𝑇𝐴𝐼𝑇𝒖)𝑇 = −𝒖𝑇𝐴𝐼𝒖 ⇒ 𝒖𝑇𝐴𝐼𝒖 = 0;

(1.12.13)

la 𝑄(𝒙) si può anche riscrivere:

𝑄(𝒙) = 𝒖𝑇𝐴𝑅𝒖 + 𝒗𝑇𝐴𝑅𝒗 + 2𝑣

𝑇𝐴𝐼𝒖

= [𝒖𝑇  𝒗𝑇] [𝐴𝑅 𝐴𝐼

𝑇

𝐴𝐼 𝐴𝑅] [𝒖𝒗]

(1.12.14)

Una forma hermitiana può quindi essere rappresentata anche da

una forma quadratica nelle 2𝑛 variabili reali 𝑢1, 𝑢2…𝑢𝑛; 𝑣1, 𝑣2…𝑣𝑛.

Riduzione di una forma hermitiana a forma canonica. 1.13 -

Si consideri una forma hermitiana 𝑄(𝒙) nelle 𝑛 variabili 𝑥1, 𝑥2, … , 𝑥𝑛.

Data una matrice 𝑇 di ordine 𝑛 non singolare, esiste una unica 𝑛-

upla 𝑧1, 𝑧2, … , 𝑧𝑛 che soddisfa il sistema:

𝑇𝒛 = 𝒙 (1.13.1)

La forma 𝑄(𝒙) riferita a 𝒛 si muta nella:

𝑄(𝑇𝒛) = (𝑇𝒛)†𝐴(𝑇𝒛) = 𝒛†𝑇†𝐴𝑇𝒛 = 𝒛†𝐴′𝒛 = 𝑄′(𝒛) (1.13.2)

in cui si è posto:

𝐴′ = 𝑇†𝐴𝑇 (1.13.3)

𝑄′(𝒛)è una forma hermitiana in 𝒛 poiché risulta:

𝐴′†= (𝑇†𝐴𝑇)† = 𝑇†𝐴†𝑇 = 𝑇†𝐴𝑇 = 𝐴′ (1.13.4)

𝐴′ è hermitiana.

Per autovettore associato ad una matrice quadrata di ordine 𝑛 si

intende una soluzione non banale del sistema di equazioni dipendente

dal parametro 𝜆:

Page 36: Lezioni di TEORIA DEI SEGNALI.pdf

24 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

(𝐴 − 𝜆𝐼)𝒗 = 0 (1.13.5)

Poiché il sistema è omogeneo, esso ammette soluzioni non banali solo

se è nullo il determinante della matrice dei coefficienti. L'imposizione di

tale condizione conduce a una equazione polinomiale di grado 𝑛 nell'in-

cognita 𝜆. Detta equazione ammette al più 𝑛 soluzioni distinte, dette au-

tovalori della matrice.

Ogni vettore non banale 𝒗𝑖 che soddisfa l'equazione:

𝐴𝒗𝑖 = 𝜆𝑖𝒗𝑖 (1.13.6)

cioè alla (1.13.5) scritta per l'autovalore 𝜆𝑖, è chiamato autovettore asso-

ciato all'autovalore considerato.

Ci si convince facilmente del fatto che se 𝒗𝑖 é un autovettore di

𝐴, tale è anche un qualunque vettore 𝒖𝑖 = 𝛼𝒗𝑖 dove 𝛼 è un complesso

qualsiasi. In particolare ponendo 𝛼 = (√𝒗𝑖†𝒗𝑖)

−1

si ottiene un autovet-

tore 𝒖𝑖 che soddisfa la condizione di normalizzazione

𝒖𝑖†𝒖𝑖 = 1 (1.13.7)

e viene quindi chiamato autoversore della matrice.

Si osservi che gli autovalori di una matrice hermitiana 𝐴 sono rea-

li. Infatti premoltimplicando ambo i membri della (1.13.6) per 𝒗𝑖† si ha:

𝒗𝑖†𝐴𝒗𝑖 = 𝒗𝑖

†𝜆𝑖𝒗𝑖 = 𝜆𝑖𝒗𝑖†𝒗𝑖 . (1.13.8)

Ricordando che in virtù della (1.12.8) una forma hermitiana assume solo

valori reali e poiché 𝒗𝑖†𝒗𝑖 è, come si verifica facilmente, reale, 𝜆𝑖 deve es-

sere necessariamente reale.

Si può anche mostrare che autovettori 𝒗𝑖, 𝒗𝑗, associati a una ma-

trice hermitiana 𝐴, relativi a due autovalori distinti 𝜆𝑖, 𝜆𝑗, sono mutua-

mente ortogonali, cioè soddisfano l’uguaglianza:

𝒗𝑖†𝒗𝑗 = 0 (1.13.9)

Infatti, in virtù della (1.13.6) e della appartenenza ad ℝ degli au-

tovalori, si può scrivere:

𝜆𝑗𝒗𝑖

†𝒗𝑗 = 𝒗𝑖†𝜆𝑗𝒗𝑗 = 𝒗𝑖

†𝐴𝒗𝑗 = (𝒗𝑗†𝐴†𝒗𝑖)

† =

= (𝒗𝑗†𝐴𝒗𝑖)

† = (𝒗𝑗†𝜆𝑖𝒗𝑖)

† = 𝜆𝑖∗𝒗𝑖

†𝒗𝑗 = 𝜆𝑖𝒗𝑖†𝒗𝑗

(1.13.10)

Page 37: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 25

Essendo per ipotesi 𝜆𝑖 ≠ 𝜆𝑗 dalla precedente discende la (1.13.9).

In quel che segue si ipotizza per semplicità che tutti gli autovalori

della matrice hermitiana 𝐴 abbiano molteplicità 1, o che è lo stesso, che

il suo polinomio caratteristico ammette 𝑛 radici distinte.

Si vuole provare che, mediante una trasformazione del tipo

(1.13.3), è possibile individuare un riferimento rispetto al quale la forma

hermitiana si presenta in forma diagonale3.

A tal fine si consideri la matrice 𝑇 degli autovettori normalizzati

di 𝐴:

𝑇 = [𝒖1 𝒖2 ⋯ 𝒖𝑛] (1.13.11)

Risulta:

𝑇†𝑇 = [𝒖1†

𝒖𝑛†] [𝒖1 ⋯ 𝒖𝑛] = 𝐼 (1.13.12)

da cui immediatamente si evince che 𝑇† = 𝑇−1 e che 𝑇 ha determinante

unitario.

Sostituendo la matrice 𝑇 appena introdotta nella (1.13.3) si ottie-

ne:

𝐴′ =

[ 𝒖1

𝒖2†

𝒖𝑛† ]

𝐴[𝒖1, 𝒖2, … , 𝒖𝑛]

=

[ 𝒖1

†𝐴𝒖1 𝒖1†𝐴𝒖2 … 𝒖1

†𝐴𝒖𝑛

𝒖2†𝐴𝒖1 𝒖2

†𝐴𝒖2 … 𝒖2†𝐴𝒖𝑛

… … … …

𝒖𝑛†𝐴𝒖1 𝒖𝑛

†𝐴𝒖2 … 𝒖𝑛†𝐴𝒖𝑛]

(1.13.13)

che, ricordando le (1.13.6), (1.13.7) e la (1.13.9) diventa:

𝐴′ =

[ 𝜆1𝒖1

†𝒖1 0 … 0

0 𝜆2𝒖2†𝒖2 … 0

… … … …

0 0 … 𝜆𝑛𝒖𝑛†𝒖𝑛]

= diag(𝜆1, 𝜆2, … , 𝜆𝑛)

(1.13.14)

3 Si noti che la diagonalizzazione di una forma hermitiana è possibile anche nel caso in cui gli

autovalori non abbiano tutti molteplicità 1

Page 38: Lezioni di TEORIA DEI SEGNALI.pdf

26 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Per effetto di tale trasformazione quindi la forma hermitiana si ri-

scrive:

𝑄′(𝒛) =∑𝜆𝑖𝑧𝑖𝑧𝑖∗

𝑛

𝑖=1

(1.13.15)

Si osservi che, il determinante di 𝐴 è uguale al determinante di 𝐴′,

che a sua volta è dato da ∏ 𝜆𝑖𝑛𝑖=1 . Se ne conclude che una matrice hermi-

tiana ha determinante reale.

Forme hermitiane semidefinite positive. 1.14 -

Una forma hermitiana si dice semidefinita positiva se per ogni 𝒙 risulta:

𝑄(𝒙) ≥ 0 (1.14.1)

Se risulta 𝑄(𝒙) = 0 solo per 𝒙 = 𝐨 la forma si dice definita positi-

va.

Se una forma hermitiana è semidefinita positiva ovviamente tale è

anche la sua forma equivalente 𝑄′(𝒛). In particolare ciò comporta:

𝜆1 ≥ 0,  𝜆2 ≥ 0, … , 𝜆𝑛 ≥ 0 (1.14.2)

quindi deve anche essere:

det(𝐴) ≥ 0 (1.14.3)

Ci si convince facilmente che attribuendo valore zero a 𝑛 − 𝑟 va-

riabili di una forma hermitiana semidefinita positiva si ottiene ancora

una forma hermitiana semidefinita positiva nelle 𝑟 variabili non nulle.

Assumendo, senza per questo ledere la generalità, che le variabili non

necessariamente nulle siano le prime 𝑟, si deduce che la condizione di

semidefinitezza positiva comporta anche:

𝑎11 ≥ 0;     |𝑎11 𝑎12𝑎21 𝑎22

| ≥ 0;        |

𝑎11 𝑎12 … 𝑎1𝑛𝑎21 𝑎22 … 𝑎2𝑛… … … …𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛

| ≥ 0; (1.14.4)

Cioè i determinanti dei minori principali della matrice di una forma

hermitiana semidefinita positiva non possono essere negativi.

Si può dimostrare che tale condizione è anche sufficiente affinché

la forma sia semidefinita positiva.

Esempio 1.3

La forma

Page 39: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 27

𝑄(𝒙) = (4𝜉 + 5)𝑥1𝑥1∗ + 𝑥1

∗𝑥2 + 𝑥1𝑥2∗ + (𝜉 + 2)𝑥2𝑥2

è una forma hermitiana nelle variabili 𝒙 = [𝑥1 𝑥2]𝑇 dipendente dal para-

metro 𝜉, in quanto la matrice ad essa associata, essendo reale è simmetrica

soddisfa la (1.12.6).

Per studiarne la natura, occorre prendere in considerazione la matrice ad

essa associata

𝐴 = [4𝜉 + 5 11 𝜉 + 2

]

il cui determinate vale:

𝑑𝑒𝑡(𝐴) = (4𝜉 + 5)(𝜉 + 2) − 1 = 4𝜉2 + 13𝜉 + 9

Esso si annulla in corrispondenza dei valori di 𝜉 dati dalle:

{

𝜉1 =

−13 − √132 − 16 ⋅ 9

8=−13 − 5

8= −1

𝜉2 =−13 + √132 − 16 ⋅ 9

8=−13 + 5

8= −

9

4

Poiché risulta:

det(𝐴) ≥ 0 per 𝜉 ≤ −9

4 ⋁ 𝜉 ≥ −1

e anche

4𝜉 + 5 ≥ 0 per 𝜉 ≥ −5

4

la forma hermitiana è semidefinita positiva solo se:

𝜉 ≥ −1

Prodotto scalare. 1.15 -

Lo spazio vettoriale X sul campo ℂ dei numeri complessi si può

dotare di prodotto scalare, se è possibile definire una applicazione, qui

indicata con la notazione ⟨𝒙, 𝒚⟩, di X × X su ℂ che soddisfa le seguenti

proprietà:

{

𝑎) ⟨𝒙, 𝒚⟩ = ⟨𝒚, 𝒙⟩∗;

𝑏) ⟨𝒙, 𝒙⟩ ≥ 0; ⟨𝒙, 𝒙⟩ = 0 ⇔ 𝒙 = 𝒐;

𝑐) ⟨𝜆𝒙, 𝒚⟩ = 𝜆⟨𝒙, 𝒚⟩ = ⟨𝒙, 𝜆∗𝒚⟩;

𝑑) ⟨(𝒙 + 𝒚), 𝒛⟩ = ⟨𝒙, 𝒛⟩ + ⟨𝒚, 𝒛⟩;

(1.15.1)

Si noti che la proprietà (1.15.1)a, implica che la quantità a primo

membro della (1.15.1)b deve essere reale. Tale osservazione consente di

dedurre dai primi due l'ultimo membro della (1.15.1)c.

Page 40: Lezioni di TEORIA DEI SEGNALI.pdf

28 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

La proprietà (1.15.1)c si riassume dicendo che il prodotto scalare

è lineare a sinistra ed antilineare a destra.

Detti 𝒙1, 𝒙2 due elementi di X e 𝑘1, 𝑘2 due complessi, si ha:

0 ≤ ⟨𝑘1𝒙1 + 𝑘2𝒙2, 𝑘1𝒙1 + 𝑘2𝒙2⟩

= 𝑘1⟨𝒙1, 𝑘1𝒙1 + 𝑘2𝒙2⟩ + 𝑘2⟨𝒙2, 𝑘1𝒙1 + 𝑘2𝒙2⟩ (1.15.2)

e per la proprietà (1.15.1)a:

0 ≤ 𝑘1⟨𝑘1𝒙1 + 𝑘2𝒙2, 𝒙1⟩∗ + 𝑘2⟨𝑘1𝒙1 + 𝑘2𝒙2, 𝒙2⟩

= ⟨𝒙1, 𝒙1⟩∗𝑘1𝑘1

∗ + ⟨𝒙2, 𝒙1⟩∗𝑘1𝑘2

∗ + ⟨𝒙1, 𝒙2⟩∗𝑘1

∗𝑘2

+ ⟨𝒙2, 𝒙2⟩∗𝑘2𝑘2

= ⟨𝒙1, 𝒙1⟩𝑘1𝑘1∗ + ⟨𝒙1, 𝒙2⟩𝑘1𝑘2

∗ + ⟨𝒙1, 𝒙2⟩ ∗ 𝑘1∗𝑘2

+ ⟨𝒙2, 𝒙2⟩𝑘2𝑘2∗

(1.15.3)

Ciò significa che la forma hermitiana

ℎ(𝑘1, 𝑘2) = 𝑎11𝑘1𝑘1∗ + 𝑎12𝑘1𝑘2

∗ + 𝑎21𝑘1∗𝑘2 + 𝑎22𝑘2𝑘2

∗ (1.15.4)

dove:

𝑎11 = ⟨𝒙1, 𝒙1⟩ 𝑎12 = ⟨𝒙1, 𝒙2⟩𝑎21 = ⟨𝒙1, 𝒙2⟩

∗ 𝑎22 = ⟨𝒙2, 𝒙2⟩ (1.15.5)

è semidefinita positiva. Pertanto deve essere 𝑎11𝑎22 − 𝑎12𝑎21 ≥ 0.

Tenendo conto delle (1.15.5), si deduce che vale la disuguaglianza

di Schwarz:

|⟨𝒙1, 𝒙2⟩| ≤ ⟨𝒙1, 𝒙1⟩1

2 ⋅ ⟨𝒙2, 𝒙2⟩1

2 (1.15.6)

Che è verificata come uguaglianza quando, in accordo con la

proprietà (1.15.1)b, si ha 𝒙1 = 𝒐 e/o 𝒙2 = 𝒐, ovvero se risulta:

𝒙1 = 𝑘𝒙2 (1.15.7)

dove 𝑘 ∈ ℂ.

Se uno spazio è dotato di prodotto scalare esso è implicitamente

anche uno spazio normato nel senso che la quantità √⟨𝒙, 𝒙⟩ è una possi-

bile norma per X. Essa infatti è una quantità reale e non negativa; inoltre

risulta:

⟨𝑘𝒙, 𝑘𝒙⟩ = 𝑘⟨𝒙, 𝑘𝒙⟩ = 𝑘⟨𝑘𝒙, 𝒙⟩∗ = |𝑘|2⟨𝒙, 𝒙⟩ (1.15.8)

e quindi

Page 41: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 29

⟨𝑘𝒙, 𝑘𝒙⟩1

2 = |𝑘|⟨𝒙, 𝒙⟩1

2 (1.15.9)

il che significa che la proprietà (1.11.1)b della norma è verificata.

In base alla proprietà (1.15.1)c si ottiene facilmente:

⟨(𝒙1 + 𝒙2), (𝒙1 + 𝒙2)⟩ = ⟨𝒙1, 𝒙1⟩ + 2Re[⟨𝒙1, 𝒙2⟩] + ⟨𝒙2, 𝒙2⟩ (1.15.10)

dalla quale applicando la disuguaglianza di Schwarz si deduce:

⟨𝒙1 + 𝒙2, 𝒙1 + 𝒙2⟩1

2 ≤ (⟨𝒙1, 𝒙1⟩ + 2|⟨𝒙1, 𝒙2⟩| + ⟨𝒙2, 𝒙2⟩)1

2

≤ (⟨𝒙1, 𝒙1⟩ + 2⟨𝒙1, 𝒙1⟩1

2⟨𝒙2, 𝒙2⟩1

2 + ⟨𝒙2, 𝒙2⟩)

1

2

= ⟨𝒙1, 𝒙1⟩1

2 + ⟨𝒙2, 𝒙2⟩1

2

(1.15.11)

che corrisponde alla proprietà (1.11.1)c della norma.

In definitiva se X è dotato di prodotto scalare a esso si può anche

associare la norma così definita:

‖𝒙‖ = ⟨𝒙, 𝒙⟩1

2 (1.15.12)

Se due vettori 𝒙1 e 𝒙2 sono tali che il loro prodotto scalare si an-

nulla si dicono ortogonali. Se essi hanno anche norma unitaria cioè se:

⟨𝒙1, 𝒙2⟩ = 0   ∧   ‖𝒙1‖ = ‖𝒙2‖  = 1 (1.15.13)

si dicono ortonormali.

Uno spazio vettoriale dotato di prodotto scalare, è anche uno

spazio metrico. Infatti è possibile assumere come distanza tra due ele-

menti qualsiasi dello spazio la quantità:

𝑑(𝒙𝟏, 𝒙𝟐) = ‖𝒙𝟏 − 𝒙𝟐‖ = √⟨𝒙𝟏 − 𝒙𝟐, 𝒙𝟏 − 𝒙𝟐⟩ (1.15.14)

Con ciò non si intende dire che non è possibile definire su uno

spazio dotato di prodotto scalare altre metriche o altre norme, ma sem-

plicemente che, se si definisce su uno spazio un prodotto scalare, a esso

naturalmente si associano la metrica e la norma da esso indotte e con es-

so coerenti.

Uno spazio vettoriale dotato di prodotto scalare che sia anche

completo è detto spazio di Hilbert.

Page 42: Lezioni di TEORIA DEI SEGNALI.pdf

30 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Vettori linearmente indipendenti. 1.16 -

Sia dato uno spazio vettoriale X sul campo ℂ, si considerino 𝑛

suoi vettori (𝒙1, 𝒙2, … , 𝒙𝑛) e una 𝑛-upla di complessi (𝛼1, 𝛼2, … , 𝛼𝑛) e sia

𝒙 il vettore di X ottenuto combinando linearmente i vettori anzidetti a

mezzo della 𝑛-upla di costanti. In simboli:

𝒙 =∑𝛼𝑖𝒙𝑖

𝑛

𝑖=1

(1.16.1)

se risulta:

𝒙 =∑𝛼𝑖𝒙𝑖

𝑛

𝑖=1

= 𝒐 ⇔∑|𝛼𝑖|

𝑛

𝑖=1

= 0 (1.16.2)

cioè se l'unica 𝑛-upla di scalari (𝛼1, 𝛼2, … , 𝛼𝑛) che porta nell'origine dello

spazio è quella i cui elementi sono tutti nulli, si dice che i vettori

(𝒙1, 𝒙2, … , 𝒙𝑛) sono linearmente indipendenti.

Si verifica facilmente che il sottoinsieme di X generato da tutte le

possibili combinazioni lineari di 𝑛 vettori è a sua volta uno spazio vetto-

riale, generalmente un sottospazio, non necessariamente proprio, di X.

Se gli 𝑛 vettori sono linearmente indipendenti, e se lo spazio da

essi generato coincide con X, si dice che gli 𝑛 vettori sono una base per

X.

È Inoltre facile convincersi del fatto che se 𝑛 vettori sono una ba-

se per lo spazio vettoriale X e ad essi si aggiunge un ulteriore vettore gli

𝑛 + 1 vettori così ottenuti sono linearmente dipendenti. Inoltre se 𝑛 vet-

tori linearmente indipendenti generano X comunque presa un'altra 𝑛-

upla di vettori linearmente indipendenti di X anche essa generà X. Ciò si-

gnifica che il parametro 𝑛 è caratteristico dello spazio vettoriale conside-

rato e ne individua la dimensione.

È opportuno osservare che uno spazio vettoriale non deve neces-

sariamente avere dimensione finita; in questo caso si dice che lo spazio

ha dimensione infinita.

Dato uno spazio vettoriale X di dimensione 𝑛, finita o infinita,

𝑘 < 𝑛 vettori linearmente indipendenti di detto spazio generano uno

spazio vettoriale di dimensione 𝑘 contenuto propriamente in X.

Si osservi che scegliere una base per uno spazio vettoriale X di

dimensione 𝑁 equivale a definire una corrispondenza biunivoca tra i vet-

Page 43: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 1 - Richiami di Matematica - 31

tori dello spazio e tutte le possibili 𝑁-uple ordinate (𝛼1, 𝛼2, … , 𝛼𝑁) di

numeri complessi cioè tra il generico vettore di X e il generico punto di

ℂ𝑁 che è a sua volta uno spazio vettoriale. Il generico elemento 𝛼𝑖 di tale

𝑁-upla è la componente 𝑖-esima del vettore rispetto alla base prescelta. Il

vettore 𝛼𝑖𝒙𝑖 è il componente 𝑖-esimo rispetto alla predetta base.

Page 44: Lezioni di TEORIA DEI SEGNALI.pdf
Page 45: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2

RAPPRESENTAZIONE VETTORIALE DEI SEGNALI

Premessa. 2.1 -

Un segnale a tempo continuo può essere identificato mediante

una funzione generalmente complessa di 𝑁 variabili reali definita in

D ⊆ ℝ𝑁.

In quel che segue, si considerano prevalentemente segnali dipen-

denti da una sola variabile che generalmente è il tempo. Essi sono quindi

rappresentati da funzioni del tipo:

𝑠: 𝑡 ∈ T ⊆ ℝ → ℂ (2.1.1)

Il primo passo nell'analisi di un segnale consiste nella sua classifi-

cazione, che si effettua sulla base delle proprietà di cui gode. Ciò equiva-

le a considerare il segnale come appartenente a una data classe o insie-

me. Se S denota un tale insieme e 𝑠(𝑡) è un suo elemento, si scrive:

𝑠(𝑡) ∈ S (2.1.2)

Esempi di tali insiemi sono:

- l'insieme S𝑆 dei segnali sinusoidali, definito dalla seguente regola di

appartenenza:

𝑠(𝑡) ∈ S𝑆 ⇔ 𝑠(𝑡) = 𝑉0Re[𝑒𝑗(2𝜋𝑓𝑡+𝜑)]; (𝑉0 ≥ ,0, 𝑓, 𝜑 ∈ ℝ) (2.1.3)

- l'insieme S𝑃 dei segnali periodici che obbedisce alla:

𝑠(𝑡) ∈ S𝑃 ⇒ ∃ 𝑇 > 0 | ∀ 𝑡 ⇒ 𝑠(𝑡) = 𝑠(𝑡 + 𝑇) (2.1.4)

- l'insieme 𝑆𝐷 dei segnali a durata limitata cosi definiti:

𝑠(𝑡) ∈ S𝐷 ⇒ ∃𝑡1 ∧ 𝑡2 ∈ ℝ | 𝑠(𝑡) = 0 ∀ 𝑡 ∉ [𝑡1, 𝑡2] (2.1.5)

- L'insieme 𝑆𝐵 dei segnali a banda limitata cioè quelli per cui si ha:

𝑠(𝑡) ∈ S𝐵 ⇒ ∃ 𝑓1 ∧ 𝑓2 ∈ ℝ | ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

−∞

= 0,

∀ 𝑓 | |𝑓| ∉ [𝑓1, 𝑓2]

(2.1.6)

Page 46: Lezioni di TEORIA DEI SEGNALI.pdf

34 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

È evidente che se si riesce ad associare a un dato insieme di se-

gnali una struttura algebrica, si possono meglio evidenziare particolari

caratteristiche degli elementi che lo compongono. Ad esempio se su un

dato insieme si definisce una metrica diventa possibile associare una di-

stanza a ogni coppia di suoi elementi.

L'individuazione di una struttura algebrica più complessa, su un

dato insieme di segnali, come ad esempio quella di spazio vettoriale,

permette di utilizzare gli strumenti propri dell'Algebra lineare. Ad esem-

pio, lo sviluppo di un segnale in termini di un’opportuna base dello spa-

zio, permetterebbe di rappresentare il segnale mediante una sequenza al

più numerabile di coefficienti. Tale tipo di rappresentazione ha come

immediata conseguenza una notevole semplificazione nell'applicazione

di tecniche numeriche all'analisi dei segnali. Inoltre, la struttura di spazio

vettoriale rende alcune proprietà evidenti e intuitivamente accettabili, in

quanto si presta a semplici analogie di tipo geometrico. Dette analogie

risultano inoltre particolarmente efficaci nell'approccio a molti problemi,

la cui soluzione, affrontata per via puramente analitica, risulterebbe ol-

tremodo complessa.

Una classe di segnali di particolare interesse è costituita dai segnali

ad energia finita. Se si vuole associare a tale classe la desiderata struttura

di spazio vettoriale, è necessario tuttavia raffinare la definizione di se-

gnale come verrà chiarito nel prossimo paragrafo.

Lo spazio dei segnali a energia finita. 2.2 -

Si consideri l'insieme delle funzioni reali o complesse appartenen-

ti a 𝔏2(ℝ). In detto insieme s’introduce la relazione di equivalenza: due

funzioni sono equivalenti se assumono valori diversi solo in un sottoin-

sieme di ℝ di misura nulla cioè se le funzioni sono uguali quasi ovunque.

La relazione di equivalenza appena introdotta definisce una parti-

zione S di 𝔏2(ℝ). S è cioè una famiglia di sottoinsiemi disgiunti di

𝔏2(ℝ), detti classi di equivalenza, la cui unione ricopre 𝔏2(ℝ).

Ciascun elemento 𝑠 di S è un segnale. In altri termini due funzioni

in 𝔏2(ℝ) uguali quasi ovunque rappresentano lo stesso segnale in quan-

to appartengono alla medesima classe di equivalenza.

Siano 𝑠1(𝑡), 𝑠2(𝑡) due funzioni scelte arbitrariamente nelle rispet-

tive classi di equivalenza 𝒔1, 𝒔2. La funzione 𝑠(𝑡) = 𝑠1(𝑡) + 𝑠2(𝑡), appar-

tenendo, in virtù della (1.8.3), a 𝔏2(ℝ), individua un solo segnale 𝒔 ∈ S

Page 47: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -35-

che costituisce la somma dei segnali 𝒔1, 𝒔2. In modo analogo si può de-

finire in S l'elemento 𝛼𝒔 con 𝛼 costante complessa.

È facile verificare che S è un gruppo commutativo rispetto all'o-

perazione di somma sopra definita. L'elemento neutro di detto gruppo è

la classe delle funzioni quasi ovunque nulle.

Dalle ultime considerazioni svolte, discende che S ha la struttura

di spazio vettoriale. Esso è denominato spazio dei segnali a energia fini-

ta. Tale nome è giustificato dal fatto che a ogni elemento 𝒔 ∈ S si può

associare la quantità:

𝐸 = ∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

< ∞ (2.2.1)

che, essendo invariante rispetto alla scelta di 𝑠(𝑡) nella classe 𝒔, esprime

l'energia specifica associata al segnale 𝒔.

In quel che segue, per brevità, spesso un segnale 𝑠 verrà denotato

mediante una qualunque funzione 𝑠(𝑡) appartenente alla classe di equi-

valenza associata al segnale in esame.

Prodotto scalare

Dati due generici elementi 𝒔1 ed 𝒔2 dello spazio S ad essi si può

associare la quantità generalmente complessa definita dalla:

⟨𝒔1, 𝒔2⟩ = ∫ 𝑠1(𝑡)𝑠2∗(𝑡)𝑑𝑡

−∞

(2.2.2)

Detta quantità esiste ed è limitata in modulo. Infatti tenendo conto della

(1.8.4), risulta:

|∫ 𝑠1(𝑡)𝑠2∗(𝑡)𝑑𝑡

−∞

| ≤ ∫ |𝑠1(𝑡)𝑠2∗(𝑡)|𝑑𝑡

−∞

         ≤ (∫ |𝑠1(𝑡)|2𝑑𝑡

−∞

)

1

2

(∫ |𝑠2(𝑡)|2𝑑𝑡

−∞

)

1

2

< ∞

(2.2.3)

La (2.2.2) definisce un prodotto scalare in quanto è facile verifica-

re che essa soddisfa le proprietà (1.15.1) che lo caratterizzano.

Distanza

Da quanto esposto nel Capitolo precedente, discende che lo spa-

zio S, essendo dotato di prodotto scalare, è uno spazio metrico. La di-

Page 48: Lezioni di TEORIA DEI SEGNALI.pdf

36 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

stanza 𝑑(𝒔1, 𝒔2) tra due qualsiasi suoi elementi, coerente con la (2.2.2), è

definita dalla:

𝑑(𝒔1, 𝒔2) = ⟨𝒔1 − 𝒔2, 𝒔1 − 𝒔2⟩1

2 = (∫ |𝑠1(𝑡) − 𝑠2(𝑡)|2𝑑𝑡

−∞

)

1

2

(2.2.4)

Norma

Lo spazio S è normato. Infatti ad esso può associarsi la seguente

norma:

‖𝒔‖ = √⟨𝒔, 𝒔⟩ = (∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

)

1

2

(2.2.5)

È opportuno sottolineare che è possibile definire in S diversi

prodotti scalari, tuttavia quello definito dalla (2.2.2), come si nota facil-

mente, induce una norma che è legata all'energia specifica del segnale.

Le (2.2.4), (2.2.5) si chiamano rispettivamente distanza e norma

euclidea per la loro evidente analogia alle corrispondenti grandezze defi-

nite nello spazio euclideo.

Ad ogni segnale non nullo corrisponde un segnale normalizzato:

𝒖 =𝒔

‖𝒔‖ (2.2.6)

che ha evidentemente norma unitaria.

Esempio 2.1

Si valuti la distanza fra i segnali rappresentati dalle seguenti funzioni:

𝑠1(𝑡) = cos (2𝜋𝑡

𝑇)⊓ (

𝑡

𝑇) , 𝑠2(𝑡) = cos (

2𝜋(𝑡 + 𝜏)

𝑇)⊓ (

𝑡

𝑇)

Essendo:

|𝑠1(𝑡) − 𝑠2(𝑡)| = 2 |sin (𝜋𝜏

𝑇) sin (

𝜋(2𝑡 + 𝜏)

𝑇)|⊓ (

𝑡

𝑇)

risulta:

𝑑2(𝒔𝟏, 𝒔𝟐) = 4sin2 (𝜋𝜏

𝑇)∫ sin2 (

𝜋(2𝑡 + 𝜏)

𝑇)𝑑𝑡

𝑇

2

−𝑇

2

= 2𝑇sin2 (𝜋𝜏

𝑇)

da cui:

𝑑(𝒔𝟏, 𝒔𝟐) = √2𝑇 |sin (𝜋𝜏

𝑇)|

Page 49: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -37-

Segnali linearmente indipendenti. 2.3 -

Un insieme di 𝑛 segnali appartenenti allo spazio dei segnali genera

un sottospazio di dimensione finita. A priori, non è detto che la dimen-

sione di detto sottospazio sia uguale al numero dei segnali presi in con-

siderazione, in quanto si può verificare il caso in cui almeno uno dei se-

gnali considerati è esprimibile mediante una opportuna combinazione

lineare dei restanti. È quindi evidente l'opportunità di individuare dei

metodi per stabilire se 𝑛 segnali sono linearmente indipendenti al fine di

determinare l’effettiva dimensione del sottospazio da essi generato.

Un metodo generale per stabilire la lineare indipendenza di 𝑛 se-

gnali si ottiene osservando il determinante della seguente matrice di

Gram:

[

⟨𝒔1, 𝒔1⟩ ⟨𝒔1, 𝒔2⟩ … ⟨𝒔1, 𝒔𝑛⟩⟨𝒔2, 𝒔1⟩ ⟨𝒔2, 𝒔2⟩ … ⟨𝒔2, 𝒔𝑛⟩… … … …

⟨𝒔𝑛, 𝒔1⟩ ⟨𝒔𝑛 , 𝒔2⟩ … ⟨𝒔𝑛, 𝒔𝑛⟩

] (2.3.1)

Vale il seguente teorema:

Teorema 2.1 (di Gram)

𝑛 segnali sono linearmente dipendenti se e solo se il determinante di Gram

𝐺(𝒔1, 𝒔2, … , 𝒔𝑛) ad essi relativo è nullo.

Necessarietà:

se con {𝑠𝑖}𝑖=1𝑛 si denota un insieme di 𝑛 segnali linearmente dipendenti,

devono esistere 𝑛 costanti {𝑐𝑖}, non tutte nulle, tali che:

∑𝑐𝑖𝒔𝑖 = 𝒐

𝑛

𝑖=1

(2.3.2)

Effettuando il prodotto scalare tra il primo membro della precedente e il

generico segnale 𝑠𝑗 si ottengono le 𝑛 equazioni:

∑𝑐𝑖⟨𝑠𝑖 , 𝑠𝑗⟩ = 0;

𝑛

𝑖=1

j=1,2,…,n (2.3.3)

che, riguardate come un sistema lineare omogeneo di 𝑛 equazioni nelle

𝑛 incognite {𝑐𝑖}, devono ammettere una soluzione non banale. Pertanto

la matrice dei coefficienti di detto sistema deve essere singolare.

Sufficienza:

Page 50: Lezioni di TEORIA DEI SEGNALI.pdf

38 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

se è 𝐺(𝒔1, 𝒔2, … , 𝒔𝑛) = 0 il sistema omogeneo (2.3.3) ammette anche so-

luzioni diverse dall'identica. Detta {𝜆𝑖} una tale soluzione, si consideri il

segnale:

𝒔 =∑𝜆𝑖𝒔𝑖

𝑛

𝑖=1

(2.3.4)

Si ha:

‖𝒔‖2 = ⟨∑𝜆𝑖𝒔𝑖

𝑛

𝑖=1

,∑𝜆𝑗𝒔𝑗

𝑛

𝑗=1

⟩ = ∑ 𝜆𝑖𝜆𝑗∗⟨𝒔𝑖 , 𝑠𝑗⟩

𝑛

𝑖,𝑗=1

=∑𝜆𝑗∗ (∑𝜆𝑖⟨𝒔𝑖 , 𝒔𝑗⟩

𝑛

𝑖=1

)

𝑛

𝑗=1

= 0

(2.3.5)

essendo per ipotesi le {𝜆𝑖} una soluzione del sistema (2.3.3).

Il segnale definito dalla (2.3.4), avendo norma nulla, è il segnale

nullo. Pertanto i segnali {𝒔𝑖}𝑖=1𝑛 sono linearmente dipendenti.

***********

Si osservi che, se il determinante di Gram è nullo, la matrice di

Gram ha rango 𝑟 < 𝑛. Data la simmetria hermitiana della matrice si può

dimostrare che essa ammette almeno un minore non nullo contenente 𝑟

elementi della sua diagonale principale. Detto minore si può interpretare

quindi come la matrice di Gram associata agli 𝑟 segnali con cui è costi-

tuito. Ciò significa che il rango della matrice di Gram è uguale al numero

massimo di segnali indipendenti contenuti nella 𝑛-upla.

È interessante osservare che la matrice di Gram è semidefinita

positiva. Infatti la norma del generico segnale 𝒔 appartenente al sotto-

spazio generato da un insieme di segnali {𝒔𝑖}𝑖=1𝑛 è non negativa. Si può

quindi scrivere:

0 ≤ ‖𝒔‖2 = ⟨∑𝑐𝑖𝒔𝑖

𝑛

𝑖=1

,∑𝑐𝑗𝒔𝑗

𝑛

𝑗=1

⟩ = ∑ 𝑐𝑖𝑐𝑗∗⟨𝒔𝑖 , 𝒔𝑗⟩

𝑛

𝑖,𝑗=1

(2.3.6)

Si noti che l'ultimo membro della disuguaglianza precedente è la forma

hermitiana nelle variabili 𝑐1, 𝑐2, … , 𝑐𝑛 associata alla matrice di Gram che è

quindi semidefinita positiva.

Esempio 2.2

Verificare che i segnali rappresentati dalle seguenti funzioni:

Page 51: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -39-

𝑠𝑛(𝑡) = 𝑡𝑛

⊓(𝑡 −1

2) ; n∈{1,2,3}

sono linearmente indipendenti.

Il generico prodotto scalare vale:

⟨𝒔𝑖 , 𝒔𝑗⟩ = ∫ 𝑡𝑖+𝑗𝑑𝑡1

0

=1

1 + 𝑖 + 𝑗

da cui si ottiene il determinante di Gram associato ai segnali considerati:

𝐺(𝒔1, 𝒔2, 𝒔3) = ||

1

3

1

4

1

51

4

1

5

1

61

5

1

6

1

7

|| =1

378.000

Poiché 𝐺(𝒔1, 𝒔2, 𝒔3) ≠ 0 i tre segnali sono linearmente indipendenti.

Esempio 2.3

Dati i segnali rappresentati in Fig.E 2.1: determinare la dimensione del

sottospazio da essi generato.

Si ha:

⟨𝒔1, 𝒔1⟩ = 5  ⟨𝒔1, 𝒔2⟩ = −6 ⟨𝒔1, 𝒔3⟩ = −1 ⟨𝒔2, 𝒔1⟩ = −6 ⟨𝒔2, 𝒔2⟩ = 8 ⟨𝒔2, 𝒔3⟩ = 2⟨𝒔3, 𝒔1⟩ = −1 ⟨𝒔3, 𝒔2⟩ = 2 ⟨𝒔3, 𝒔3⟩ = 1

pertanto il determinante di Gram vale:

𝐺 = |5 −6 −1−6 8 2−1 2 1

| = 0

quindi i segnali sono linearmente dipendenti.

Poiché, come è facile

verificare, il rango della

matrice di Gram vale 2,

solo due segnali risulta-

no linearmente indipen-

denti; conseguentemente

il sottospazio da essi ge-

nerato ha dimensione 2.

La lineare dipendenza dei segnali poteva essere verificata semplicemente

osservando che:

−𝒔1(𝒕) − 𝒔2(𝒕) + 𝒔3(𝒕) = 𝟎

Fig.E 2.1

Page 52: Lezioni di TEORIA DEI SEGNALI.pdf

40 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Rappresentazione geometrica di un segnale. 2.4 -

Siano {𝒖𝑖}𝑖=1𝑛 𝑛 segnali linearmente indipendenti. L'insieme S𝑛 dei segna-

li esprimibili nella forma

𝒔 =∑𝛼𝑖𝒖𝑖

𝑛

𝑖=1

(2.4.1)

al variare dei coefficienti {𝛼𝑖} in ℂ𝑛, è, come è noto, un sottospazio vet-

toriale di dimensione 𝑛 generato dai segnali {𝒖𝑖}. Ogni segnale ivi con-

tenuto individua univocamente, in virtù della lineare indipendenza degli

{𝑢𝑖}𝑖=1𝑛 , una 𝑛-upla di coefficienti.

Reciprocamente, comunque scelto un punto in ℂ𝑛, ad esso, trami-

te la (2.4.1), corrisponde un unico se-

gnale in S𝑛.

I coefficienti {𝛼𝑖}𝑖=1𝑛 si possono

interpretare come le “coordinate” del

segnale 𝑠 nel sistema di riferimento in-

dividuato dai vettori {𝒖𝑖}𝑖=1𝑛 . Queste

considerazioni, nel caso in cui i segnali

{𝒖𝑖}𝑖=1𝑛 siano rappresentabili mediante

funzioni reali e i coefficienti {𝛼𝑖}𝑖=1𝑛

siano anch’essi reali, suggeriscono la

rappresentazione geometrica mostrata

in Fig. 2.1 per il caso tridimensionale.

L'insieme dei vettori {𝒖𝑖}𝑖=1𝑛 costituisce quindi una base del sotto-

spazio vettoriale S𝑛 di S.

È opportuno ricordare che un qualsiasi altro insieme {𝑣𝑖}𝑖=1𝑛 di

vettori linearmente indipendenti appartenenti a S𝑛 costituisce a sua volta

una base per il sottospazio; la base pertanto non è unica.

I coefficienti {𝛼𝑖}𝑖=1𝑛 , di un dato segnale appartenente a S𝑛, pos-

sono essere calcolati effettuando in ambo i membri della (2.4.1) il pro-

dotto scalare per il generico vettore di base 𝒖𝑗. Si ottengono così le 𝑛

equazioni:

⟨𝒔, 𝒖𝑗⟩ = ∑𝛼𝑖⟨𝒖i,𝒖𝑗⟩

𝑛

𝑖=1

; j=1,2,…,n (2.4.2)

Fig. 2.1 - Rappresentazione vetto-riale del segnale 𝒔.

Page 53: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -41-

che costituiscono un sistema lineare nelle incognite {𝛼𝑖}. In forma ma-

triciale il sistema (2.4.2) si scrive:

[

⟨𝒖1, 𝒖1⟩ ⟨𝒖2, 𝒖1⟩ … ⟨𝒖𝑛, 𝒖1⟩⟨𝒖1, 𝒖2⟩ ⟨𝒖2, 𝒖2⟩ … ⟨𝒖𝑛, 𝒖2⟩… … … …

⟨𝒖1, 𝒖𝑛⟩ ⟨𝒖𝟐, 𝒖𝑛⟩ … ⟨𝒖𝑛, 𝒖𝑛⟩

] [

𝛼1𝛼2…𝛼𝑛

] = [

⟨𝒔,𝒖1⟩⟨𝒔,𝒖2⟩…

⟨𝒔,𝒖𝑛⟩

] (2.4.3)

Detto sistema ammette un'unica soluzione, poiché la matrice dei coeffi-

cienti ad esso associata è la trasposta della matrice di Gram associata a

un insieme di segnali linearmente indipendenti.

Un altro metodo per calcolare i coefficienti {𝛼𝑖}𝑖=1𝑛 consiste nel

determinare 𝑛 vettori {𝑣𝑖}𝑖=1𝑛 che godano della proprietà:

⟨𝒔, 𝒗𝑗⟩ = 𝛼𝑗; 𝑗 = 1,2, … , 𝑛 (2.4.4)

Tenendo conto della (2.4.1) si ottiene:

𝛼𝑗 = ⟨𝒔, 𝒗𝑗⟩ = ⟨∑𝛼𝑖𝒖𝑖

𝑛

𝑖=1

, 𝒗𝑗⟩

         =∑𝛼𝑖⟨𝒖𝑖 , 𝒗𝑗⟩;

𝑛

𝑖=1

𝑗 = 1,2, … , 𝑛

(2.4.5)

che ammette la soluzione:

⟨𝑢𝑖, 𝑣𝑗⟩ = {1; 𝑖 = 𝑗0; 𝑖 ≠ 𝑗

= 𝛿𝑖𝑗 (2.4.6)

Il generico 𝒗𝑗 risulta pertanto ortogonale a ciascun vettore della base

{𝒖𝑖}𝑖=1𝑛 fatta eccezione per il 𝑗-esimo. L'insieme di vettori {𝒗𝑖}𝑖=1

𝑛 costi-

tuisce a sua volta una base del sottospazio che è detta base reciproca as-

sociata alla base {𝒖𝑖}𝑖=1𝑛 .

Si osservi che dalla (2.4.6) discende che la reciproca di una base

reciproca è la base di partenza.

Esempio 2.4

Dati i segnali individuati dalle seguenti funzioni:

{

𝑢1(𝑡) =⊓ (𝑡 −1

2)

𝑢2(𝑡) =⊓(𝑡 − 1)𝑢3(𝑡) =⊓ (𝑡 −

3

2)

Page 54: Lezioni di TEORIA DEI SEGNALI.pdf

42 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

verificare che essi costituiscono una base per il sottospazio da essi generato

e quindi determinare la base reciproca associata.

I tre segnali sono linearmente indipendenti, in quanto comunque scelti

due di essi, da una loro combinazione lineare non si può ottenere il terzo. In-

fatti esiste un insieme di misura non nulla in cui il terzo segnale è diverso da

zero mentre gli altri due segnali sono entrambi identicamente nulli.

Il generico elemento della base reciproca si può esprimere nella forma:

𝒗𝒊 =∑𝛼𝑖,𝑗𝒖𝒋

3

𝑗=1

Imponendo per ciascun vettore 𝒗𝑖 la condizione (2.4.6), si ottengono i tre si-

stemi lineari:

{

⟨𝒗𝟏, 𝒖𝒊⟩ =∑𝛼1,𝑗⟨𝒖𝒋, 𝒖𝒊⟩

3

𝑗=1

= 𝛿𝑖,1

⟨𝒗𝟐, 𝒖𝒊⟩ =∑𝛼2,𝑗⟨𝒖𝒋, 𝒖𝒊⟩

3

𝑗=1

= 𝛿𝑖,2

⟨𝒗𝟑, 𝒖𝒊⟩ =∑𝛼3,𝑗⟨𝒖𝒋, 𝒖𝒊⟩

3

𝑗=1

= 𝛿𝑖,3

; 𝑖 = 1,2,3

le cui soluzioni forniscono:

𝒗𝟏 =𝟑

𝟐𝒖𝟏 − 𝒖𝟐 +

𝟏

𝟐𝒖𝟑

𝒗𝟐 = −𝒖𝟏 + 𝟐𝒖𝟐 − 𝒖𝟑

𝒗𝟑 =𝟏

𝟐𝒖𝟏 − 𝒖𝟐 +

𝟑

𝟐𝒖𝟑

Si perviene a una notevole semplificazione scegliendo una base

{𝑢𝑖}𝑖=1𝑛 composta da vettori di norma unitaria a due a due ortogonali

detta base ortonormale. In simboli:

⟨𝒖𝑖 , 𝒖𝑗⟩ = 𝛿𝑖,𝑗 (2.4.7)

In questo caso la matrice di Gram diventa unitaria e la (2.4.2) si riduce

alla:

𝛼𝑖 = ⟨𝒔, 𝒖𝑖⟩;      𝑖 = 1,2, … , 𝑛 (2.4.8)

Un segnale appartenente al sottospazio riferito a una base orto-

normale si esprime pertanto nella forma:

𝒔 =∑⟨𝒔, 𝒖𝑖⟩𝒖𝑖

𝑛

𝑖=1

(2.4.9)

Page 55: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -43-

Dal confronto tra la (2.4.6) e la (2.4.7) discende che la base reci-

proca associata ad una base ortonormale è la base stessa. Le basi orto-

normali sono quindi anche basi autoreciproche.

Se si fa riferimento a una base ortonormale si ottiene la seguente

espressione per il prodotto scalare tra segnali appartenenti al sottospazio

S𝑛:

⟨𝒔1, 𝒔2⟩ = ∑∑𝛼1𝑖𝛼2𝑗∗ ⟨𝒖𝑖, 𝒖𝑗⟩

𝑛

𝑗=1

=

𝑛

𝑖=1

∑𝛼1𝑖𝛼2𝑖∗

𝑛

𝑖=1

(2.4.10)

analogamente per la norma e per la distanza euclidea si ha:

‖𝒔‖ = ⟨𝒔, 𝒔⟩1 2⁄ = (∑|𝛼𝑖|2

𝑛

𝑖=1

)

1 2⁄

(2.4.11)

𝑑(𝒔1, 𝒔2) = ‖𝒔1 − 𝒔2‖ = (∑|𝛼1𝑖 − 𝛼2𝑖|2

𝑛

𝑖=1

)

1 2⁄

(2.4.12)

Queste ultime evidenziano un ulteriore motivo per cercare, quan-

do è possibile, di adottare una base ortonormale. Infatti se si riguardano

le componenti {𝛼1𝑖}𝑖=1𝑛 , {𝛼2𝑖}𝑖=1

𝑛 dei due segnali, riferiti ad una stessa ba-

se ortonormale, come vettori riga dello spazio ℂ𝑛, le (2.4.10), (2.4.11) e

la (2.4.12) possono essere riscritte sotto forma matriciale:

⟨𝒔1, 𝒔2⟩ = 𝜶1𝜶2† (2.4.13)

‖𝒔‖ = (𝜶𝜶†)1

2 (2.4.14)

𝑑(𝒔1, 𝒔2) = [(𝜶1 − 𝜶2)(𝜶1 − 𝜶2)†]1

2 (2.4.15)

In altri termini, se in un sottospazio si individua una base orto-

normale, il prodotto scalare, la norma e la distanza euclidee possono es-

sere calcolati in modo semplice effettuando le medesime operazioni sui

vettori delle componenti dei segnali in ℂ𝑛.

Esempio 2.5

Sia 𝑄(𝒙) = 𝒙†𝐴𝒙 una forma hermitiana.

Se gli autovalori della matrice ad essa associata hanno tutti molteplicità

1, gli autoversori associati a ciascun autovalore di 𝐴, sono mutuamente orto-

gonali e quindi costituiscono una base ortonormale per lo spazio ℂ𝑛 a cui 𝒙

appartiene.

Page 56: Lezioni di TEORIA DEI SEGNALI.pdf

44 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Nel caso in cui tutti gli autovalori di 𝐴 hanno molteplicità 1 ad eccezione

di uno che ha molteplicità 2 tra gli autovettori associati a quest'ultimo, se ne

possono certamente scegliere 2 linearmente indipendenti. Essi individuano

un sottospazio di dimensione due (autospazio) che contiene tutti e soli gli

autovettori relativi all'autovalore in questione. Ciascun vettore di questo au-

tospazio è ortogonale ad ogni autovettore relativo ad un altro autovalore.

Inoltre è sempre possibile riferire l'autospazio ad una base ortonormale, gli

autoversori che la costituiscono, uniti ai restanti autoversori, generano una

base (autobase) per lo spazio ℂ𝑛 associata alla 𝑄(𝒙) .

La generalizzazione di quanto esposto al caso di matrici hermitiane con

autovalori di molteplicità qualsiasi è immediata.

Per quanto riguarda la riduzione a forma canonica di una forma hermi-

tiana, si osservi che, individuata una autobase {𝒖𝑖}𝑖=1𝑛 , il generico vettore 𝒙

di ℂ𝑛 si può scrivere:

𝒙 =∑𝛼𝑖𝒖𝑖

𝑛

𝑖=1

Pertanto:

𝑄(𝑥) = 𝒙†𝑨𝒙 =∑𝛼𝑖∗𝒖𝑖

𝑛

𝑖=1

𝑨∑𝛼𝑗𝒖𝑗

𝑛

𝑗=1

=∑∑𝛼𝑖∗𝛼𝑗𝒖𝑖

†𝑨𝒖𝑗

𝑛

𝑗=1

𝑛

𝑖=1

=∑∑𝛼𝑖∗𝛼𝑗𝒖𝑖

†𝜆𝑗𝒖𝑗

𝑛

𝑗=1

𝑛

𝑖=1

=∑∑𝛼𝑖∗𝛼𝑗𝝀𝒋𝒖𝑖

†𝒖𝑗

𝑛

𝑗=1

𝑛

𝑖=1

=∑𝜆𝑖|𝛼𝑖|2

𝑛

𝑖=1

= 𝜶† ⋅ diag(𝜆1, 𝜆2, … , 𝜆𝑛) ⋅ 𝜶

nell'ultimo membro della precedente, ogni autovalore viene ripetuto un nu-

mero di volte pari alla sua molteplicità.

Angolo tra due segnali. 2.5 -

Siano dati due segnali reali ad energia finita 𝒔1, 𝒔2. Per essi vale la

disuguaglianza di Schwarz (1.15.6) che, in virtù della natura reale dei due

segnali, può essere riscritta nella forma:

−1 ≤∫ 𝑠1(𝑡)∞

−∞𝑠2(𝑡)𝑑𝑡

√∫ |𝑠1(𝑡)|2∞

−∞𝑑𝑡 ∫ |𝑠2(𝑡)|

2∞

−∞𝑑𝑡

≤ 1 (2.5.1)

dalla quale si deduce che è sempre possibile individuare un unico angolo

𝜗 appartenente all'intervallo [0, 𝜋] che verifica l'uguaglianza:

⟨𝒔1, 𝒔2⟩ = ‖𝒔1‖ ⋅ ‖𝒔2‖cos𝜗 (2.5.2)

Page 57: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -45-

I due segnali in questione sono

certamente contenuti in un sottospazio

di dimensione due che è unico se i se-

gnali sono linearmente indipendenti.

Fissata che sia una base ortonormale

{𝒖𝑖}𝑖=12 in detto sottospazio, è possibile

esprimere i due segnali nella forma:

𝒔1 = 𝛼11𝒖1 + 𝛼12𝒖2; 𝒔2 = 𝛼21𝒖1 + 𝛼22𝒖2; (2.5.3)

D'altro canto, tenendo conto delle (2.4.10) e (2.4.11) la (2.5.2) può esse-

re anche scritta come segue:

< 𝒔1, 𝒔2 >= 𝛼11𝛼21 + 𝛼12𝛼22

= √𝛼112 + 𝛼12

2 ⋅ √𝛼212 + 𝛼22

2 cos𝜗 (2.5.4)

il cui ultimo membro si può immediatamente interpretare come il pro-

dotto scalare in ℝ2 tra due vettori aventi rispettivamente modulo

√𝛼112 + 𝛼12

2 e √𝛼212 + 𝛼22

2 , formanti un angolo 𝜗. Si verifica facilmente

che detto angolo è indipendente dalla base ortonormale scelta nel sotto-

spazio in cui i segnali sono contenuti.

È quindi possibile fornire una rappresentazione grafica dei due

segnali reali come mostrato in Fig. 2.2, È questo il motivo per cui in ge-

nerale due segnali si dicono ortogonali se il loro prodotto scalare è nullo.

Esempio 2.6

Dati i segnali mostrati in Fig.E 2.2,a). se ne costruisca una rappresenta-

zione vettoriale.

Come si riconosce facilmente i due segnali hanno entrambi norma unita-

ria.

Se si associa al primo segnale un vettore 𝒔 di modulo unitario, il secondo

segnale sarà rappresentato da un vettore 𝒔𝜏 anch'esso di modulo unitario la

cui componente ortogonale su 𝒔 si ottiene effettuando il seguente prodotto

scalare:

⟨𝒔, 𝒔𝝉⟩ = ∫ 𝑠(𝑡)𝑠𝜏(𝑡)𝑑𝑡∞

−∞

= {1 − 𝜏; 0 ≤ 𝜏 ≤ 1 1 + 𝜏; −1 ≤ 𝜏 < 00; |𝜏| > 1

   =   (1 − |𝜏|)⊓ (𝜏

2)

Fig. 2.2 - Angolo tra due segnali

Page 58: Lezioni di TEORIA DEI SEGNALI.pdf

46 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

La rappresentazione geometrica dei due segnali si presenta come in Fig.E

2.2,b). Si noti che se |𝜏| ≥ 1 i due segnali risultano ortonormali.

Approssimazione dei segnali nel sottospazio S𝒏. Teo-2.6 - rema della proiezione.

Sia S𝑛 un sottospazio vettoriale ad 𝑛 dimensioni e 𝒔 un segnale

non necessariamente appartenente ad S𝑛.

In alcune applicazioni può essere utile costruire un segnale

��𝑛 ∈ S𝑛 che, in base a un assegnato criterio, ne costituisca la migliore

approssimazione. Il criterio più naturale per determinare la migliore ap-

prossimazione di 𝒔 in S𝑛 consiste nello scegliere quell'elemento di S𝑛

che si trova alla minima distanza euclidea dal segnale considerato 𝒔.

Poiché un generico segnale 𝒔𝑛 ∈ S𝑛 si può sempre riferire ad una

base ortonormale {𝒖𝑖}𝑖=1𝑛 di detto sottospazio:

𝒔𝑛 =∑𝛼𝑖𝒖𝑖

𝑛

𝑖=1

(2.6.1)

l'approssimazione ��𝑛 cercata è individuata dalla 𝑛-upla di coefficienti

{𝛼𝑖} che minimizzano la quantità:

‖𝒆‖2 = ‖𝒔 −∑𝛼𝑖𝒖𝑖

𝑛

𝑖=1

‖2 (2.6.2)

Esplicitando la precedente si ha:

‖𝒆‖2 = ‖𝒔‖2 −∑𝛼𝑖⟨𝒔, 𝒖𝑖⟩∗

𝑛

𝑖=1

−∑𝛼𝑖∗⟨𝒔, 𝒖𝑖⟩ +

𝑛

𝑖=1

∑|𝛼𝑖|2

𝑛

𝑖=1

(2.6.3)

Se nella (2.6.3) si somma e si sottrae la quantità ∑ |⟨𝒔, 𝒖𝑖⟩|2𝑛

𝑖=1 si ottiene:

Fig.E 2.2

Page 59: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -47-

‖𝒆‖2 = ‖𝒔‖2 −∑|⟨𝒔, 𝒖𝑖⟩|2 +

𝑛

𝑖=1

∑|𝛼𝑖 − ⟨𝒔, 𝒖𝑖⟩|2

𝑛

𝑖=1

(2.6.4)

Poiché l'ultimo addendo a secondo membro della precedente è certa-

mente non negativo il minimo cercato si ottiene quando esso si annulla

cioè quando risulta:

𝛼𝑖 = ⟨𝑠, 𝑢𝑖⟩; 𝑖 = 1,2, … 𝑛 (2.6.5)

Pertanto si ha:

��𝑛 =∑⟨𝒔,𝒖𝑖⟩𝒖𝑖

𝑛

𝑖=1

(2.6.6)

I coefficienti {𝛼𝑖}𝑖=1𝑛 definiti dalle (2.6.5) sono chiamati coeffi-

cienti di Fourier generalizzati del

segnale 𝒔 rispetto alla base orto-

normale . {𝒖𝑖}𝑖=1𝑛

Un interessante conseguenza

del risultato appena ottenuto è il co-

siddetto Teorema della proiezione

che stabilisce che, detta ��𝑛 la mi-

gliore approssimazione di 𝒔 in S𝑛, secondo il criterio della minima di-

stanza euclidea, il vettore 𝒔 − ��𝑛 è ortogonale a ogni vettore appartenen-

te ad S𝑛 e quindi al sottospazio S𝑛 (vedi Fig. 2.3 ).

Per dimostrarlo è sufficiente verificare che il vettore 𝒔 − ��𝑛 è or-

togonale a ciascun vettore di una qualsiasi base {𝒖𝑖}𝑖=1𝑛 ortonormale di

S𝑛. Tenendo conto delle (2.6.5) e (2.6.6) risulta:

⟨𝒔 − ��𝑛, 𝒖𝑖⟩ = ⟨𝒔, 𝒖𝑖⟩ − ⟨��𝑛, 𝒖𝑖⟩ = 0 (2.6.7)

Per questo motivo ��𝑛 si dice proiezione ortogonale di 𝒔 nel sotto-

spazio S𝑛.

Nel caso in cui si scelga in S𝑛 una base {𝒗𝑖}𝑖=1𝑛 non ortonormale,

tenendo presente che, in base alla (2.6.7), risulta per ogni 𝒗 ∈ S𝑛:

⟨𝒔, 𝒗⟩ = ⟨��𝑛, 𝒗⟩ (2.6.8)

si deduce che le componenti {𝛽𝑖}𝑖=1𝑛 del segnale ��𝑛 rispetto alla base

{𝒗𝑖}𝑖=1𝑛 si ottengono risolvendo il sistema:

Fig. 2.3 Proiezione ortogonale

Page 60: Lezioni di TEORIA DEI SEGNALI.pdf

48 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

⟨��𝑛, 𝒗𝑖⟩ = ∑𝛽𝑗

𝑛

𝑗=1

⟨𝒗𝑗 , 𝒗𝑖⟩ = ⟨𝒔, 𝒗𝑖⟩; 𝑖 = 1, … , 𝑛 (2.6.9)

È interessante osservare che un sottospazio lineare a 𝑛 dimensio-

ni determina nello spazio dei segnali S una partizione in classi di equiva-

lenza: due segnali appartengono alla stessa classe di equivalenza se am-

mettono la stessa approssimazione in S𝑛 o, che è lo stesso, se la loro dif-

ferenza è ortogonale a S𝑛.

La quantità

𝒆 = 𝒔 − ��𝑛 (2.6.10)

è l'errore di approssimazione; la sua norma ‖𝑒‖ ne misura l'entità. Si ha:

‖𝒆‖2 = ‖𝒔 − ��𝑛‖2 = ⟨𝒔 − ��𝑛, 𝒔 − ��𝑛⟩

= ⟨𝒔, 𝒔 − ��𝑛⟩ − ⟨��𝑛, 𝒔 − ��𝑛⟩  = ⟨𝒔 − ��𝑛, 𝒔⟩∗ = ⟨𝒔, 𝒔⟩ − ⟨��𝑛, 𝒔⟩

= ‖𝒔‖2 − ⟨��𝑛 , 𝒔⟩∗ = ‖𝒔‖2 − ‖��𝑛‖

2

(2.6.11)

poiché, essendo 𝒆 ortogonale a ��𝑛, risulta ⟨��𝑛, 𝒔⟩ = ‖��𝑛‖2.

La (2.6.11) costituisce l'estensione della relazione pitagorica agli

spazi normati.

Se il vettore ��𝑛 si riferisce ad una base ortonormale {𝒖𝑖}𝑖=1𝑛 si ha:

‖��𝑛‖2 =∑|⟨𝒔, 𝒖𝑖⟩|

2

𝑛

𝑖=1

(2.6.12)

in questo caso la (2.6.11) assume la forma:

‖𝒆‖2 = ‖𝒔‖2 −∑|⟨𝒔, 𝒖𝑖⟩|2

𝑛

𝑖=1

(2.6.13)

Essendo, d'altra parte, ‖𝒆‖ ≥ 0 si deduce:

∑|⟨𝒔, 𝒖𝑖⟩|2 ≤ ‖𝒔‖2

𝑛

𝑖=1

(2.6.14)

nota come disuguaglianza di Bessel.

Esempio 2.7

Determinare la proiezione dell'impulso ⊓(𝑡 −1

2) nel sottospazio lineare

S3 individuato dai segnali rappresentabili me diante le funzioni:

Page 61: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -49-

𝑣𝑛(𝑡) = {𝑒−𝑛𝑡    𝑡 ≥ 00       𝑡 < 0

;    n=1,2,3

Indicando con 𝒓 l’impulso ret-

tangolare, risulta:

⟨𝒓, 𝒗𝑛⟩ = ∫ 𝑒−𝑛𝑡𝑑𝑡1

0

  =1 − 𝑒−𝑛

𝑛

il sistema (2.6.9) diventa

[ 1

2

1

3

1

41

3

1

4

1

51

4

1

5

1

6]

⋅ [

𝛽1𝛽2𝛽3

] =

[ 1 − 𝑒−1

1 − 𝑒−2

21 − 𝑒−3

3 ]

da cui:

[

𝛽1𝛽2𝛽3

] = [12 − 72𝑒−1 + 120𝑒−2 − 60𝑒−3

−30 + 240𝑒−1 − 450𝑒−2 + 240𝑒−3

20 − 180𝑒−1 + 360𝑒−2 − 200𝑒−3]

per cui l'approssimazione dell'impulso rettangolare nel

sottospazio in questione vale:

𝑠3(𝑡) =∑𝛽𝑖𝑣𝑖(𝑡)

3

𝑖=1

= (12 − 72𝑒−1 + 120𝑒−2 − 60𝑒−3)𝑒−𝑡 + (−30 + 240𝑒−1

− 450𝑒−2 + 240𝑒−3)𝑒−2𝑡 + (20 − 180𝑒−1 + 360𝑒−2

− 200𝑒−3)𝑒−3𝑡

In Fig.E 2.3 è rappresentata la migliore approssima-

zione dell'impulso rettangolare nel sottospazio S3.

Esempio 2.8

Le funzioni rappresentate in Fig.E 2.4 sono i primi

quattro elementi dell'insieme (ortonormale) delle fun-

zioni di Walsh. Esse definiscono un sottospazio S4 a

quattro dimensioni. I coefficienti, rispetto alla citata ba-

se, della proiezione ortogonale su S4 del segnale 𝒔 indi-

viduato dalla:

𝑠(𝑡) = 𝑡 ⊓ (𝑡 −1

2)

valgono:

Fig.E 2.4

Fig.E 2.3

Page 62: Lezioni di TEORIA DEI SEGNALI.pdf

50 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

{

𝛼1 = ∫ 𝑡𝑤0(𝑡)𝑑𝑡

1

0

=1

2[𝑡2]0

1 =1

2;

𝛼2 = ∫ 𝑡𝑤1(𝑡)𝑑𝑡1

0

=1

2([𝑡2]0

1

2 − [𝑡2]12

1) −1

4;

𝛼3 = ∫ 𝑡𝑤2(𝑡)𝑑𝑡1

0

=1

2([𝑡2]0

1

4 − [𝑡2]14

3

4 + [𝑡2]34

1) = 0;

𝛼4 = ∫ 𝑡𝑤3(𝑡)𝑑𝑡1

0

=1

2([𝑡2]0

1

8 − [𝑡2]18

1

4 + [𝑡2]14

3

8 − [𝑡2]38

1) = −1

8;

In Fig.E 2.5 sono mostrate le funzioni rappresentative dei segnali

��1, ��2, ��3, ��4  che costituiscono le approssimazioni di 𝒔, rispettivamente nei

sottospazi generati da 𝒘0, da 𝒘0, 𝒘1, da 𝒘0, 𝒘1, 𝒘2, e da 𝒘0, 𝒘1, 𝒘2, 𝒘3.

In particolare ��4(𝑡), cioè la funzione rappresentativa del segnale ��4 apparte-

nente al sottospazio S4 a minima distanza Euclidea da 𝒔, è data da:

��𝟒(𝑡) =1

2𝒘𝟎(𝑡) −

1

4𝒘𝟏(𝑡) −

1

8𝒘𝟑(𝑡)

Procedimento di ortonormalizzazione di Gram-2.7 - Schmidt.

Da quanto detto risulta evidente l'opportunità di disporre di un

algoritmo che permetta di costruire una base ortonormale per il sotto-

spazio generato da un assegnato insieme {𝒔𝑖}𝑖=1𝑛 di segnali. Un tale algo-

ritmo, noto come procedimento di ortonormalizzazione di Gram-

Schmidt, è basato sul teorema della proiezione. Esso consiste nel gene-

rare ricorsivamente sottospazi di dimensione crescente annidati l'uno

dentro l'altro.

Si procede come segue:

Si considera il segnale 𝒔1. Il primo elemento della base è:

𝒖1 =𝒔1‖𝒔1‖

(2.7.1)

che genera un sottospazio S1 di dimensione 1.

Si considera quindi 𝒔2 e si costruisce il segnale:

Fig.E 2.5 Proiezioni di un segnale in sottospazi annidati di dimensione crescente.

Page 63: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -51-

𝒆2 = 𝒔2 − ⟨𝒔2, 𝒖1⟩𝒖1 (2.7.2)

Se 𝒆2 è il segnale nullo, 𝒔2 appartiene ad S1 e si salta al passo suc-

cessivo. In caso contrario, in virtù del teorema della proiezione, 𝒆2 è or-

togonale al sottospazio S1. Pertanto si può assumere come secondo

elemento della base il segnale:

𝒖2 =𝒆2‖𝒆2‖

(2.7.3)

I due segnali 𝒖1 e 𝒖2 generano quindi un sottospazio S2 in cui è

annidato S1.

Si ripete il passo precedente fino ad esaurire i segnali dell'insieme {𝒔𝑖}.

Al passo 𝑖-esimo supposto che tutti i segnali precedentemente

considerati siano tra loro linearmente indipendenti l'𝑖-esimo vettore di

base è dato da:

𝒖𝑖 =𝒆𝑖‖𝒆𝑖‖

(2.7.4)

dove:

𝒆𝑖 = 𝒔𝑖 −∑⟨𝒔𝑖 , 𝒖𝑗⟩𝒖𝑗

𝑖−1

𝑗=1

(2.7.5)

L'algoritmo appena descritto consente, in genere, per un dato in-

sieme {𝒔𝑖}𝑖=1𝑛 , di costruire più basi ortonormali, dipendentemente dall'or-

dinamento scelto all'interno dell'insieme {𝒔𝑖}𝑖=1𝑛 . Evidentemente una

qualunque base ottenuta con il procedimento descritto genera lo stesso

sottospazio di S. Detto sottospazio ha la minima dimensione necessaria

per contenere i segnali dell'insieme {𝒔𝑖}𝑖=1𝑛 . Tale dimensione ovviamente

non può superare la cardinalità di {𝒔𝑖}𝑖=1𝑛 .

Si osservi inoltre che la procedura descritta in virtù della sua natu-

ra ricorsiva si può applicare anche al caso in cui l'insieme dei segnali sia

di cardinalità infinita, purché numerabile.

Esempio 2.9

Determinare una base ortonormale per il sottospazio lineare individuato

dai segnali rappresentati dalle funzioni:

𝑠𝑛(𝑡) = {𝑒−𝑛𝑡; 𝑡 ≥ 00; 𝑡 < 0

; n=1,2,3

Page 64: Lezioni di TEORIA DEI SEGNALI.pdf

52 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

mediante il procedimento di Gram-Schmidt.

Si sceglie come primo elemento della base ortonormale il segnale:

𝒖𝟏 =𝒔𝟏‖𝒔𝟏‖

= √2𝒔𝟏

Si scompone quindi il secondo segnale nei suoi componenti parallelo ed or-

togonale al sottospazio individuato da 𝒖1. Si ha:

𝒔𝟐 = ⟨𝒔𝟐, 𝒖𝟏⟩𝒖𝟏 + 𝒆𝟐 =√2

3𝒖𝟏 + 𝒆𝟐 ⇒ 𝒆𝟐 = 𝒔𝟐 −

√𝟐

3𝒖𝟏

Pertanto risulta:

𝒖𝟐 =𝒆𝟐‖𝒆𝟐‖

= 6𝒆𝟐

Si procede quindi al calcolo di 𝒆3:

𝒆𝟑 = 𝒔𝟑 − ⟨𝒔𝟑, 𝒖𝟏⟩𝒖𝟏 − ⟨𝒔𝟑, 𝒖𝟐⟩𝒖𝟐 = 𝒔𝟑 −1

2√2𝒖𝟏 −

1

5𝒖𝟐

Quindi:

𝒖𝟑 =𝒆𝟑‖𝒆𝟑‖

= 10√6𝒆𝟑

Sviluppo di un segnale in serie di funzioni ortogonali. 2.8 -

Sia S𝑘 un sottospazio lineare a 𝑘 dimensioni generato da un base

B𝑘 ≡ {𝒖𝑖}𝑖=1𝑘 di vettori ortonormali e sia 𝒔𝑘 la proiezione ortogonale di

un segnale 𝒔𝑘 nel sottospazio S𝑘. L'errore quadratico medio di tale ap-

prossimazione è espresso dalla (2.6.13).

Se alla base B𝑘 si aggiunge un vettore normale 𝒖𝑘+1 ortogonale ai

precedenti, si ottiene un nuovo insieme di vettori {𝒖𝑖}𝑖=1𝑘+1 che costituisce

una nuova base B𝑘+1 che genera un sottospazio lineare S𝑘+1. Denotando

con s𝑘+1 la proiezione di 𝒔 su S𝑘+1 l'errore quadratico medio, ottenuto

con questa nuova approssimazione, sarà:

‖𝒆𝑘+1‖2 = ‖𝒔‖2 −∑|⟨𝒔, 𝒖𝑖⟩|

2

𝑘+1

𝑖=1

= ‖𝒔‖2 −∑|⟨𝒔, 𝒖𝑖⟩|2 − |⟨𝒔, 𝒖𝑘+1⟩|

2

𝑘

𝑖=1

(2.8.1)

che, ricordando la (2.6.13), si scrive:

‖𝒆𝑘+1‖2 = ‖𝒆𝑘‖

2 − |⟨𝒔, 𝒖𝑘+1⟩|2 (2.8.2)

Page 65: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 2 – Rappresentazione Vettoriale dei Segnali -53-

Cioè ‖𝒆𝑘+1‖2 ≤ ‖𝒆𝑘‖

2. Se ne conclude che, aumentando la dimensione

del sottospazio su cui si proietta il vettore 𝒔, la norma dell'errore non

aumenta. La successione {‖𝒆𝑘‖} degli errori quadratici medi è quindi una

successione non crescente a termini non negativi. Essa è pertanto una

successione convergente.

Si è portati quindi a concludere che, disponendo di un sistema di

vettori 𝒖1, 𝒖2, … , 𝒖𝑛 , … ortonormale, che individua un sottospazio linea-

re ad infinite dimensioni, si può anche ottenere un'approssimazione del

segnale 𝒔 con un errore quadratico medio nullo. In altri termini, si è in-

dotti a ritenere che la disuguaglianza di Bessel (2.6.14) diventi:

‖𝒔‖2 =∑|⟨𝒔, 𝒖𝑖⟩|2

𝑖=1

(2.8.3)

nota come relazione di Parseval.

Ammettendo che la (2.8.3) sia soddisfatta, il segnale 𝒔 può essere

espresso mediante la:

𝒔 =∑⟨𝒔, 𝒖𝑖⟩𝒖𝑖

𝑖=1

(2.8.4)

Ricordando il significato energetico che si è attribuito alla norma,

la (2.8.3) esprime l'energia specifica di un segnale in termini dei coeffi-

cienti 𝛼𝑖 = ⟨𝒔, 𝒖𝑖⟩, cosicché la quantità 𝛼𝑖 = ⟨𝒔, 𝒖𝑖⟩ rappresenta l'aliquota

con cui il generico componente 𝛼𝑖𝒖𝑖 contribuisce all'energia di 𝒔.

Si noti che non tutti gli insiemi composti da un'infinità numerabi-

le di segnali mutuamente ortonormali garantiscono l'annullarsi dell'erro-

re quadratico medio. Se si riesce a determinare un insieme per il quale la

(2.8.3) è verificata per ogni elemento di un certo spazio a dimensione in-

finita, l'insieme in questione si dice completo rispetto allo spazio consi-

derato.

Page 66: Lezioni di TEORIA DEI SEGNALI.pdf
Page 67: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 3

SEGNALI PERIODICI

Generalità. 3.1 -

Una funzione reale o complessa 𝑠(𝑡) si dice periodica se esistono

valori di 𝑇, che soddisfano la seguente equazione:

𝑠(𝑡) = 𝑠(𝑡 + 𝑇) (3.1.1)

per ogni 𝑡, salvo al più su un sottoinsieme di valori di 𝑡 di misura nulla.

È immediato constatare che 𝑠(𝑡) deve necessariamente essere definita

quasi ovunque in ℝ. Inoltre se 𝑇0 è una soluzione della (3.1.1), anche i

suoi multipli interi lo sono.

Si può assumere come periodo di 𝑠(𝑡) una qualunque soluzione

non negativa della (3.1.1), la minima delle quali costituisce il periodo

principale della funzione o del segnale periodico ad essa associato e in

quel che segue verrà denominata semplicemente periodo.

Se un segnale periodico è a potenza specifica finita si ha:

𝑃 = lim𝑇→∞

1

𝑇∫ |𝑠(𝑡)|2𝑑𝑡

𝑇

2

−𝑇

2

= lim𝑘→∞

1

𝑘𝑇0 + 𝑇′∫ |𝑠(𝑡)|2𝑑𝑡

𝑘𝑇0+𝑇′

2

−𝑘𝑇0+𝑇

2

(3.1.2)

dove 𝑘 = ⌊𝑇

𝑇0⌋ e 0 ≤ 𝑇′ = 𝑇 − 𝑘𝑇0 < 𝑇0.

Poiché risulta:

0 < ∫ |𝑠(𝑡)|2𝑑𝑡T0

< ∞ (3.1.3)

dove 𝑇0 indica un qualsiasi intervallo temporale di durata pari al periodo

𝑇0, la (3.1.2) si riscrive:

𝑃 = lim𝑘→∞

1

𝑘𝑇0+𝑇′ (∫ |𝑠(𝑡)|2𝑑𝑡

𝑘𝑇02

−𝑘𝑇02

+∫ |𝑠(𝑡)|2𝑑𝑡−𝑘

𝑇02

−𝑘𝑇0+𝑇

2

+∫ |𝑠(𝑡)|2𝑑𝑡

𝑘𝑇0+𝑇′

2

𝑘𝑇02

) (3.1.4)

Page 68: Lezioni di TEORIA DEI SEGNALI.pdf

56 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

= lim𝑘→∞

𝑘

𝑘𝑇0+𝑇′∫ |𝑠(𝑡)|2𝑑𝑡

𝑇02

−𝑇02

+ lim𝑘→∞

1

𝑘𝑇0+𝑇′(∫ |𝑠(𝑡)|2𝑑𝑡

−𝑘𝑇02

−𝑘𝑇0+𝑇

2

+∫ |𝑠(𝑡)|2𝑑𝑡

𝑘𝑇0+𝑇′

2

𝑘𝑇02

)

Gli ultimi due integrali della precedente, in virtù della (3.1.3), si manten-

gono limitati; quindi il secondo limite vale zero e la potenza specifica di

un segnale periodico si può pertanto esprimere anche nella forma più

semplice

𝑃 =1

𝑇0∫ |𝑠(𝑡)|2𝑑𝑡

𝑇02

−𝑇02

(3.1.5)

che coincide con la potenza specifica media in un periodo.

Serie di Fourier in forma esponenziale. 3.2 -

Per poter applicare ad un segnale periodico a potenza finita 𝑠(𝑡) i

metodi di analisi sviluppati nel CAPITOLO - 2 validi per segnali ad

energia finita è opportuno considerare il segnale troncato 𝑠𝑇0(𝑡) così de-

finito:

𝑠𝑇0(𝑡) = 𝑠(𝑡)⊓ (𝑡

𝑇0) (3.2.1)

manifestamente si ha (vedi Fig. 3.1):

𝑠(𝑡) = ∑ 𝑠𝑇0(𝑡 − 𝑛𝑇0)

𝑛=−∞

(3.2.2)

Si noti che, in effetti, l'uguaglianza nella precedente, vale q.o., a meno di

non ridefinire opportunamente la funzione ⊓(𝑡). La (3.2.2)ci dice che

un segnale periodico a potenza finita può essere considerato come la ri-

petizione periodica, con periodo 𝑇0, di una funzione elementare 𝑠𝑇0(𝑡) a

quadrato sommabile, definita in un intervallo T0 di durata pari al suo pe-

riodo.

Page 69: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 3 - Segnali Periodici - 57

Risulta:

∫ |𝑠𝑇0(𝑡)|2𝑑𝑡

−∞

= ∫ |𝑠(𝑡)|2𝑑𝑡

𝑇02

−𝑇02

= 𝑇0𝑃 < ∞ (3.2.3)

𝑠𝑇0(𝑡) pertanto rappresenta un segnale a energia finita 𝒔𝑇0.

È quindi chiaro che se s’individua un insieme di segnali {𝒖𝑛}𝑛=−∞∞

appartenenti ad S, completo rispetto alla classe dei segnali S𝑇0, è possibi-

le esprimere un qualsiasi suo elemento 𝒔𝑇0 come combinazione lineare

degli {𝒖𝑛}𝑛=−∞∞ .

A tal fine si prenda in considerazione l'insieme di segnali orto-

normali {𝒖𝑛}𝑛=−∞∞ . Rappresentabili mediante le seguenti funzioni:

𝑢𝑛(𝑡) =1

√𝑇0𝑒𝑗2𝜋𝑛𝑡

𝑇0 ⊓ (𝑡

𝑇0) , 𝑛 ∈ ℤ

(3.2.4)

Detto insieme, come è possibile dimostrare4, è completo rispetto all'in-

sieme dei segnali appartenenti a S𝑇0, cioè di quei segnali che sono rap-

presentabili mediante funzioni a quadrato sommabile, nulle all'esterno

dell'intervallo (−𝑇0

2,𝑇0

2).

Il generico elemento di S𝑇0, può quindi essere rappresentato me-

diante una serie bilatera del tipo:

4 Cfr.: F. G. Tricomi: Istituzioni di analisi superiore. Edizioni Cedam. Padova. 1964. pag. 186 e

seg.

Fig. 3.1- Ripetizione periodica di un segnale

Page 70: Lezioni di TEORIA DEI SEGNALI.pdf

58 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑠𝑇0 = ∑ 𝛼𝑛𝑢𝑛

𝑛=−∞

(3.2.5)

dove, in base a quanto esposto nel § 2.4 - , i coefficienti 𝛼𝑛 valgono:

𝛼𝑛 = ⟨𝑠𝑇0 , 𝑢𝑛⟩ = ∫ 𝑠𝑇0(𝑡)𝑢𝑛∗ (𝑡)𝑑𝑡

−∞

=1

√𝑇0∫ 𝑠(𝑡)𝑒

−𝑗2𝜋𝑛𝑡

𝑇0𝑑𝑡

𝑇02

−𝑇02

(3.2.6)

Se si sostituisce la (3.2.5) nella (3.2.2) si ottiene:

𝑠(𝑡) = ∑ 𝑠𝑇0(𝑡 − 𝑚𝑇0)

𝑚=−∞

= ∑ ∑𝛼𝑛

√𝑇0𝑒𝑗2𝜋𝑛

𝑡−𝑚𝑇0𝑇0 ⊓ (

𝑡 − 𝑚𝑇0𝑇0

)

𝑛=−∞

𝑚=−∞

= ∑ ⊓ (𝑡 − 𝑚𝑇0𝑇0

) ∑𝛼𝑛

√𝑇0𝑒𝑗2𝜋𝑛

𝑡

𝑇0

𝑛=−∞

=

𝑚=−∞

∑𝛼𝑛

√𝑇0𝑒𝑗2𝜋𝑛

𝑡

𝑇0

𝑛=−∞

(3.2.7)

dove si è tenuto conto della periodicità di 𝑒𝑗2𝜋𝑛𝑡

𝑇0 e del fatto che, quasi

ovunque, risulta ∑ ⊓ (𝑡−𝑚𝑇0𝑇0

) = 1∞𝑚=−∞ . Ponendo infine:

𝑓0 =1

𝑇0 (3.2.8)

e

𝑆𝑛 =1

𝑇0∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡

𝑇02

−𝑇02

(3.2.9)

la (3.2.7) assume la forma:

𝑠(𝑡) = ∑ 𝑆𝑛𝑒𝑗2𝜋𝑛𝑓0𝑡

𝑛=−∞

(3.2.10)

che costituisce la ben nota espansione di un segnale periodico in serie di

Fourier espressa in forma esponenziale o euleriana.

Si osservi che nel calcolo del generico coefficiente 𝑆𝑛, l'integrale

può estendersi ad un qualsiasi intervallo di durata 𝑇0.

Page 71: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 3 - Segnali Periodici - 59

È opportuno precisare che la serie (3.2.10) converge al segnale

𝑠(𝑡) secondo la metrica di 𝔏2(ℝ). Ciò significa che l'errore quadratico

medio fra 𝑠(𝑡) e la ridotta 𝑁-esima di detta serie tende a zero al crescere

di 𝑁, cioè:

lim𝑁→∞

∫ |𝑠(𝑡) − ∑ 𝑆𝑛𝑒𝑗2𝜋𝑛𝑓0𝑡

𝑁

𝑛=−𝑁

|

2

𝑑𝑡

𝑇02

−𝑇02

= 0 (3.2.11)

Per quanto riguarda la convergenza puntuale, è facile dimostrare

che la serie di Fourier converge ad 𝑠(𝑡) in tutti i punti in cui la funzione

è continua; negli eventuali punti di discontinuità la serie converge al va-

lore 1

2(𝑠(𝜏+) + 𝑠(𝜏−)) avendo denotato con 𝑠(𝜏+) e 𝑠(𝜏−) rispettiva-

mente i limiti destro e sinistro in corrispondenza della discontinuità.5

Dalla (3.2.10) si deduce che la conoscenza dell'insieme numerabi-

le dei coefficienti, generalmente complessi, 𝑆𝑛 e del periodo, consente la

ricostruzione di un segnale periodico 𝑠(𝑡). Ciò suggerisce una rappre-

sentazione grafica del segnale che si ottiene mediante dei diagrammi a

righe in cui sono riportati i moduli |𝑆𝑛| e gli argomenti 𝜗𝑛 di 𝑆𝑛 detti ri-

spettivamente spettri di ampiezza e di fase del segnale 𝒔.

Forma trigonometrica della serie di Fourier. 3.3 -

La serie (3.2.10) si può riscrivere come segue:

𝑠(𝑡) = 𝑆0 + ∑ 𝑆𝑛𝑒𝑗2𝜋𝑛𝑓0𝑡

−1

𝑛=−∞

+∑𝑆𝑛𝑒𝑗2𝜋𝑛𝑓0𝑡

𝑛=1

(3.3.1)

effettuando nella prima sommatoria la sostituzione 𝑛 → −𝑛 si ha:

𝑠(𝑡) = 𝑆0 +∑(𝑆𝑛𝑒𝑗2𝜋𝑛𝑓0𝑡 + 𝑆−𝑛𝑒

−𝑗2𝜋𝑛𝑓0𝑡)

𝑛=1

(3.3.2)

d'altra parte, sviluppando la (3.2.9), si ottiene:

𝑆𝑛 =1

𝑇0∫ 𝑠(𝑡)cos(2𝜋𝑛𝑓0𝑡)𝑑𝑡

T0

− 𝑗1

𝑇0∫ 𝑠(𝑡)sin(2𝜋𝑛𝑓0𝑡)𝑑𝑡

T0

(3.3.3)

Ponendo:

5 Un'ampia discussione del teorema di convergenza della serie di Fourier si trova in

R.V.Churchill: Fourier series and boundary value problems. McGraw Hill, N.Y., 1963.

Page 72: Lezioni di TEORIA DEI SEGNALI.pdf

60 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

{

𝐴𝑛 =

2

𝑇0∫ 𝑠(𝑡)cos(2𝜋𝑛𝑓0𝑡)𝑑𝑡;T0

𝐵𝑛 =2

𝑇0∫ 𝑠(𝑡)sin(2𝜋𝑛𝑓0𝑡)𝑑𝑡T0

;

(3.3.4)

si può quindi scrivere:

𝑆𝑛 =𝐴𝑛 − 𝑗𝐵𝑛

2 (3.3.5)

Sostituendo la (3.3.5) nella (3.3.2) si ottiene ancora:

𝑠(𝑡) = 𝑆0 +∑(𝐴𝑛 − 𝑗𝐵𝑛

2𝑒𝑗2𝜋𝑛𝑓0𝑡 +

𝐴−𝑛 − 𝑗𝐵−𝑛2

𝑒−𝑗2𝜋𝑛𝑓0𝑡)

𝑛=1

(3.3.6)

Poiché dalle (3.3.4) discende:

𝐴−𝑛 = 𝐴𝑛; 𝐵−𝑛 = −𝐵𝑛; 𝑆0 =𝐴02≡ 𝑎0 (3.3.7)

la (3.3.6) diventa:

𝑠(𝑡) = 𝑎0 +∑ [𝐴𝑛

2(𝑒𝑗2𝜋𝑛𝑓0𝑡 + 𝑒−𝑗2𝜋𝑛𝑓0𝑡) +

𝐵𝑛

2𝑗(𝑒𝑗2𝜋𝑛𝑓0𝑡 − 𝑒−𝑗2𝜋𝑛𝑓0𝑡)]

𝑛=1

(3.3.8)

dalla quale, ricordando le formule di Eulero, si ottiene:

𝑠(𝑡) = 𝑎0 +∑𝐴𝑛 cos(2𝜋𝑛𝑓0𝑡) + 𝐵𝑛 sin(2𝜋𝑛𝑓0𝑡)

𝑛=1

(3.3.9)

dove 𝑎0 vale:

𝑎0 =1

𝑇0∫ 𝑠(𝑡)𝑑𝑡

T0

(3.3.10)

La (3.3.9) costituisce la forma trigonometrica della serie di Fou-

rier. Il termine 𝐴𝑛 cos(2𝜋𝑛𝑓0𝑡) + 𝐵𝑛 sin(2𝜋𝑛𝑓0𝑡) si chiama armonica di

ordine 𝑛 della funzione 𝑠(𝑡). L'armonica di ordine 1 è detta armonica

fondamentale.

Segnali reali. 3.4 -

Se il segnale 𝑠(𝑡) è reale, anche le quantità 𝐴𝑛 e 𝐵𝑛 lo sono. In

questo caso la (3.3.9) può porsi nella forma equivalente:

Page 73: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 3 - Segnali Periodici - 61

𝑠(𝑡) = 𝑎0 +∑𝐶𝑛cos(2𝜋𝑛𝑓0𝑡 − 𝜗𝑛)

𝑛=1

(3.4.1)

in cui le quantità 𝐶𝑛 e 𝜗𝑛 valgono:

𝐶𝑛 = √𝐴𝑛2 + 𝐵𝑛

2 ; 𝜗𝑛 = arctg𝐵𝑛𝐴𝑛; (3.4.2)

e individuano rispettivamente l'ampiezza e la fase propria della compo-

nente armonica di ordine 𝑛 del segnale. Inoltre, tenendo presente le

(3.3.7)si deduce:

Pertanto lo spettro di ampiezza ha simmetria pari, quello di fase simmetria

dispari rispetto all'indice 𝑛 come mostrato qualitativamente in Fig. 3.2.

Esempio 3.1

Si consideri la sequenza periodica di im-

pulsi rettangolari di durata 𝑇 e periodo 𝑇0

mostrata in Fig.E 3.1. Nell’intervallo

(−𝑇0

2,𝑇0

2) il segnale è descritto dalla:

��(𝑡) = ⊓ (𝑡𝑇). Pertanto il segnale 𝑠(𝑡) può

|𝑆𝑛| = |𝑆−𝑛|; 𝜗−𝑛 = −𝜗𝑛; (3.4.3)

Fig. 3.2 - Spettri di ampiezza a) e di fase b) di un segnale reale.

Fig.E 3.1

Page 74: Lezioni di TEORIA DEI SEGNALI.pdf

62 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

scriversi come ripetizione periodica con passo 𝑇0 di ��(𝑡) otenendo:

𝑠(𝑡) = ∑ ��(𝑡 − 𝑛𝑇0) =∞𝑛=−∞ ∑ ⊓ (𝑡−𝑛𝑇0

𝑇)∞

𝑛=−∞

Per la (3.2.9) il coefficiente 𝑆𝑛 dello sviluppo in forma Euleriana vale:

𝑆𝑛 =1

𝑇0∫ 𝑒

−𝑗2𝜋𝑛𝑡

𝑇0 𝑑𝑡

𝑇

2

−𝑇

2

=

{

sin (𝜋𝑛

𝑇

𝑇0)

𝜋𝑛; 𝑛 ≠ 0

𝑇

𝑇0; 𝑛 = 0

che, tramite la funzione sinc(𝑥) così definita:

Fig.E 3.2 Sviluppo in serie di Fourier del segnale ∑ ⊓ (𝑡−𝑛

0.25)∞

𝑛=−∞

Page 75: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 3 - Segnali Periodici - 63

sinc(𝑥) = {sin(𝜋𝑥)

𝜋𝑥; 𝑥 ≠ 0

1;      𝑥 = 0

può essere scritto come segue:

𝑆𝑛 =𝑇

𝑇0sinc (

𝑛𝑇

𝑇0)

L'andamento degli 𝑆𝑛 per 𝑇

𝑇0=

1

4

è riportato in Fig.E 3.2.

La funzione sinc(𝑥), ricorre

molto spesso nella teoria dei se-

gnali. Essa, come è mostrato in

Fig.E 3.3, vale 0 se il suo argo-

mento è intero e non nullo, in 0

vale 1. che è il suo massimo as-

soluto. È una funzione continua,

derivabile infinite volte su tutto

l'asse reale e per 𝑥 → ±∞, è infinitesima dello stesso ordine di 1

𝑥.

I coefficienti dello sviluppo di 𝑠(𝑡) in foram trigonometrica si possono cal-

colare facilmente tenuto conto che dalle (3.3.5) e (3.3.7) si deduce

{

𝐴𝑛 = 𝑆𝑛 + 𝑆−𝑛 =

𝑇

𝑇0sinc (

𝑛𝑇

𝑇0) +

𝑇

𝑇0sinc (

−𝑛𝑇

𝑇0) =

2𝑇

𝑇0sinc (

𝑛𝑇

𝑇0)

𝐵𝑛 = 𝑗(𝑆𝑛 − 𝑆−𝑛) = 𝑗 (𝑇

𝑇0sinc (

𝑛𝑇

𝑇0) −

𝑇

𝑇0sinc (

−𝑛𝑇

𝑇0)) = 0

Pertanto lo sviluppo in forma trigonometrica è dato da:

𝑠(𝑡) = 𝑎0 +∑𝐴𝑛 cos (2𝜋𝑛𝑡

𝑇0) + 𝐵𝑛 sin (2𝜋

𝑛𝑡

𝑇0)

𝑛=1

=𝑇

𝑇0+2𝑇

𝑇0∑sinc (

𝑛𝑇

𝑇0) cos (2𝜋

𝑛𝑡

𝑇0)

𝑛=1

Come caso particolare si osservi che per 𝑇

𝑇0=

1

2 si ottiene:

𝑠(𝑡) =1

2+∑ sinc (

𝑛

2) cos (2𝜋

𝑛𝑡

𝑇0)

𝑛=1

Fig.E 3.3

Page 76: Lezioni di TEORIA DEI SEGNALI.pdf

64 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

In questo caso le armoniche di indice pari dello sviluppo hanno coefficiente

nullo poiché in corrispondenza ad esse la sinc ha argomento intero. In Fig.E

3.4sono riportate alcune somme parziali per 𝑇0 = 1 e 𝑇 = 0.5. Si osservino

le sovraelongazioni in corrispondenza alle discontinuità (fenomeno di

Gibbs).

Esempio 3.2

Il segnale 𝑠(𝑡) di Fig.E 3.5, è definito dalla:

𝑠(𝑡) = ∑2(𝑡 − 𝑛𝑇0)

𝑇0⊓ (

𝑡 − 𝑛𝑇0𝑇0

)

𝑛=∞

Il generico coefficiente 𝑆𝑛 vale:

𝑆𝑛 =1

𝑇0∫

2𝑡

𝑇0𝑒−𝑗

2𝜋𝑛𝑡

𝑇0 𝑑𝑡

𝑇02

−𝑇02

=2

(2𝜋𝑛)2∫ 𝑥𝑒𝑥𝑑𝑥𝑗𝜋𝑛

−𝑗𝜋𝑛

=2

(2𝜋𝑛)2[(𝑥 − 1)𝑒𝑥]−𝑗𝜋𝑛

𝑗𝜋𝑛

Si ha dunque:

{

𝑆𝑛 = 𝑗

cos(𝜋𝑛)

𝜋𝑛; 𝑛 ≠ 0

𝑆0 =2

𝑇0∫ 𝑡𝑑𝑡

𝑇02

−𝑇02

= 0;

Gli spettri di ampiezza e fase per 𝑇0 = 1 so-

no riportati in Fig.E 3.6.

Fig.E 3.5

Fig.E 3.4

Page 77: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 3 - Segnali Periodici - 65

Proprietà della serie di Fourier. 3.5 -

Linearità

Se il segnale 𝑠(𝑡) è ottenuto da una combinazione lineare di 𝑘 se-

gnali componenti 𝑠𝑖(𝑡) aventi tutti lo stesso periodo 𝑇0:

𝑠(𝑡) = ∑𝑎𝑖𝑠𝑖(𝑡)

𝑘

𝑖=1

(3.5.1)

con 𝑎𝑖 coefficienti reali o complessi, il coefficiente 𝑆𝑛 del suo sviluppo

in serie vale:

𝑆𝑛 =1

𝑇0∑𝑎𝑖

𝑘

𝑖=1

∫ 𝑠𝑖(𝑡)𝑒−𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡

T0

(3.5.2)

che, ponendo:

𝑆𝑖𝑛 =1

𝑇0∫ 𝑠𝑖(𝑡)𝑒

−𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡T0

(3.5.3)

si scrive:

Fig.E 3.6 – sviluppo del segnale 𝑠(𝑡) = ∑2(𝑡−𝑛𝑇0)

𝑇0⊓ (

𝑡−𝑛𝑇0

𝑇0)∞

𝑛=∞

Page 78: Lezioni di TEORIA DEI SEGNALI.pdf

66 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑆𝑛 =∑𝑎𝑖𝑆𝑖𝑛

𝑘

𝑖=1

(3.5.4)

cioè: il coefficiente 𝑆𝑛 di un segnale combinazione lineare di 𝑘 segnali,

aventi tutti lo stesso periodo 𝑇0, risulta espresso dalla stessa combina-

zione lineare tra i coefficienti 𝑆𝑖𝑛 dei segnali componenti.

Inversione nel dominio del tempo

Se 𝑆𝑛 denota il generico coefficiente del segnale 𝑠(𝑡), il generico

coefficiente ��𝑛 del segnale ��(𝑡) = 𝑠(−𝑡) risulta:

��𝑛 =1

𝑇0∫ 𝑠(−𝑡)𝑒−𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡

T0

=1

𝑇0∫ 𝑠(𝑡)𝑒𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡

T0

= 𝑆−𝑛 (3.5.5)

Segnale coniugato

Sia 𝑆𝑛 il generico coefficiente del segnale 𝑠(𝑡). Il generico coeffi-

ciente ��𝑛 del segnale ��(𝑡) = 𝑠∗(𝑡) sarà allora:

��𝑛 =1

𝑇0∫ 𝑠∗(𝑡)𝑒−𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡

T0

=1

𝑇0(∫ 𝑠(𝑡)𝑒𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡

𝑇0

)

= 𝑆−𝑛∗ (3.5.6)

In particolare, se il segnale è reale, dal fatto che in questo caso

𝑠(𝑡) = 𝑠∗(𝑡) (3.5.7)

discende:o

𝑆𝑛 = 𝑆−𝑛∗ (3.5.8)

precedentemente ottenuta (vedi (3.4.3)).

Coefficienti coniugati

Sia 𝑠(𝑡) un segnale il cui sviluppo in serie di Fourier ha per coef-

ficienti 𝑆𝑛. Il segnale ��(𝑡) corrispondente allo sviluppo che ha per gene-

rico coefficiente 𝑆𝑛∗ è:

��(𝑡) =∑𝑆𝑛∗𝑒𝑗2𝜋𝑛𝑓0𝑡

−∞

= (∑𝑆𝑛𝑒−𝑗2𝜋𝑛𝑓0𝑡

−∞

)

= 𝑠∗(−𝑡) (3.5.9)

che coincide con il segnale 𝑠(𝑡) coniugato ed invertito nel tempo.

Se la quantità 𝑆𝑛 è reale, risulta:

𝑆𝑛 = 𝑆𝑛∗ (3.5.10)

Page 79: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 3 - Segnali Periodici - 67

la (3.5.9) diventa:

𝑠(𝑡) = 𝑠∗(−𝑡) (3.5.11)

cioè un segnale che invertito nel tempo coincide con il proprio coniuga-

to ammette uno sviluppo i cui coefficienti 𝑆𝑛 sono reali.

Traslazione nel dominio del tempo

Sia 𝑆𝑛 il generico coefficiente dello sviluppo di un segnale 𝑠(𝑡). Il

segnale ��(𝑡) = 𝑠(𝑡 − 𝑡0), ottenuto ritardando 𝑠(𝑡) di una quantità 𝑡0,

ammette uno sviluppo il cui generico coefficiente vale:

��𝑛 =1

𝑇0∫ 𝑠(𝑡 − 𝑡0)𝑒

−𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡T0

=𝑒−𝑗2𝜋𝑛𝑓0𝑡0

𝑇0∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡

T0

= 𝑒−𝑗2𝜋𝑛𝑓0𝑡0𝑆𝑛

(3.5.12)

Pertanto la traslazione nel dominio del tempo comporta nel gene-

rico coefficiente 𝑆𝑛 la presenza di un fattore esponenziale del tipo

𝑒𝑗2𝜋𝑛𝑓0𝑡0 di modulo unitario ed argomento −𝑗2𝜋𝑛𝑓0𝑡0. In altri termini, la

traslazione lascia inalterati i moduli dei coefficienti 𝑆𝑛, ma aggiunge ai

loro argomenti un termine proporzionale al ritardo 𝑡0.

Traslazione nel dominio della frequenza

Sia 𝑆𝑛 il generico coefficiente del segnale 𝑠(𝑡). Il segnale ��(𝑡) il

cui generico coefficiente è 𝑆𝑛−𝑝 con 𝑝 ∈ ℤ vale:

��(𝑡) =∑𝑆𝑛−𝑝𝑒

𝑗2𝜋𝑛𝑓0𝑡

−∞

= 𝑒𝑗2𝜋𝑝𝑓0𝑡∑𝑆𝑛𝑒𝑗2𝜋𝑛𝑓0𝑡

−∞

= 𝑒𝑗2𝜋𝑝𝑓0𝑡𝑠(𝑡)

(3.5.13)

La traslazione di 𝑆𝑛 di una quantità 𝑝 equivale alla moltiplicazione

di 𝑠(𝑡) per un fattore esponenziale del tipo 𝑒𝑗2𝜋𝑝𝑓0𝑡0.

Convoluzione nel dominio del tempo

Siano 𝑠1(𝑡) e 𝑠2(𝑡) due segnali periodici a potenza finita e aventi

lo stesso periodo 𝑇0. Si definisce convoluzione nel dominio del tempo

fra 𝑠1(𝑡) e 𝑠2(𝑡) il segnale 𝜙(𝑡) dato dalla:

Page 80: Lezioni di TEORIA DEI SEGNALI.pdf

68 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝜙(𝑡) =1

𝑇0∫ 𝑠1(𝜏)𝑠2(𝑡 − 𝜏)𝑑𝜏

T0

=1

𝑇0∫ 𝑠1(𝑡 − 𝜏)𝑠2(𝜏)𝑑𝜏

T0

(3.5.14)

Si verifica che 𝜙(𝑡) è anch'esso periodico di periodo 𝑇0.

Detti 𝑆1𝑛 e 𝑆2𝑛 i generici coefficienti dello sviluppo di 𝑠1(𝑡) e

𝑠2(𝑡) rispettivamente, il coefficiente 𝛷𝑛 dello sviluppo del segnale 𝜙(𝑡)

vale:

𝛷𝑛 =1

𝑇0∫ (

1

𝑇0∫ 𝑠1(𝑡 − 𝜏)𝑠2(𝜏)𝑑𝜏

T0

) 𝑒−𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡T0

(3.5.15)

che, invertendo l'ordine di integrazione, diventa:

𝛷𝑛 =1

𝑇0∫ 𝑠2(𝜏) (

1

𝑇0∫ 𝑠1(𝑡 − 𝜏)𝑒

−𝑗2𝜋𝑛𝑓0𝑡𝑑𝑡T0

)𝑑𝜏T0

(3.5.16)

Applicando il teorema della traslazione nel dominio del tempo si ha:

𝛷𝑛 = 𝑆1𝑛1

𝑇0∫ 𝑠2(𝜏)𝑒

−𝑗2𝜋𝑛𝑓0𝜏𝑑𝜏T0

= 𝑆1𝑛 ⋅ 𝑆2𝑛 (3.5.17)

cioè il generico coefficiente 𝛷𝑛 dello sviluppo in serie di Fourier del se-

gnale 𝜙(𝑡) si ottiene dal prodotto dei corrispondenti coefficienti degli

sviluppi in serie dei segnali convolvendi.

Convoluzione nel dominio della frequenza

Siano 𝑠1(𝑡) e 𝑠2(𝑡) due segnali periodici di periodo 𝑇0, sviluppabi-

li in serie di Fourier con generici coefficienti espressi da 𝑆1𝑛 e 𝑆2𝑛 rispet-

tivamente. Si costruiscano i coefficienti 𝛷𝑛 definiti, al variare di 𝑛, dalla:

𝛷𝑛 = ∑ 𝑆1𝑚𝑆2(𝑛−𝑚)

𝑚=−∞

= ∑ 𝑆1(𝑛−𝑚)𝑆2𝑚

𝑚=−∞

(3.5.18)

La sequenza 𝛷𝑛 è detta convoluzione nel dominio della frequen-

za. A quest'ultima si può associare il segnale:

𝜙(𝑡) = ∑ 𝛷𝑛

𝑛=−∞

𝑒𝑗2𝜋𝑛𝑓0𝑡

= ∑ ( ∑ 𝑆1(𝑛−𝑚)𝑆2𝑚

𝑚=−∞

) 𝑒𝑗2𝜋𝑛𝑓0𝑡∞

𝑛=−∞

(3.5.19)

che, invertendo l’ordine delle sommatorie, diventa:

Page 81: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 3 - Segnali Periodici - 69

𝜙(𝑡) = ∑ 𝑆2𝑚 ( ∑ 𝑆1(𝑛−𝑚)𝑒𝑗2𝜋𝑛𝑓0𝑡

𝑛=−∞

)

𝑚=−∞

(3.5.20)

Applicando alla precedente il teorema della traslazione in frequenza si

ha:

𝜙(𝑡) = 𝑠1(𝑡) ∑ 𝑆2𝑚𝑒𝑗2𝜋𝑚𝑓0𝑡 = 𝑠1(𝑡) ⋅ 𝑠2(𝑡)

𝑚=−∞

(3.5.21)

Ciò significa che alla convoluzione nel dominio della frequenza

corrisponde il prodotto dei due segnali 𝑠1(𝑡) ⋅ 𝑠2(𝑡) nel dominio del

tempo.

Nella Tabella 3.1 sono riassunte le proprietà della serie di Fou-

rier precedentemente dedotte.

Tabella 3.1

Proprietà della serie di Fourier

Proprietà Segnale Trasformata

Linearità ∑𝑎𝑖𝑠𝑖(𝑡)

𝑘

𝑖=1

∑𝑎𝑖𝑆𝑖𝑛

𝑘

𝑖=1

Inversione nel dominio

del tempo 𝑠(−𝑡) 𝑆−𝑛

Segnale coniugato 𝑠∗(𝑡) 𝑆−𝑛∗

Coefficienti coniugati 𝑠∗(−𝑡) 𝑆𝑛∗

Traslazione nel dominio

del tempo 𝑠(𝑡 − 𝑡0) 𝑒−𝑗2𝜋𝑛𝑓0𝑡𝑆𝑛

Traslazione nel dominio

della frequenza 𝑒−𝑗2𝜋𝑝𝑓0𝑡𝑠(𝑡) 𝑆𝑛+𝑝

Convoluzione nel domi-

nio del tempo

1

𝑇∫ 𝑠1(𝑡 − 𝜏)𝑠2(𝜏)𝑑𝜏

𝑇

2

−𝑇

2

𝑆1𝑛 ⋅ 𝑆2𝑛

Convoluzione nel domi-

nio della frequenza 𝑠1(𝑡) ⋅ 𝑠2(𝑡) ∑ 𝑆1𝑚𝑆2(𝑛−𝑚)

𝑚=−∞

Page 82: Lezioni di TEORIA DEI SEGNALI.pdf

70 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Segnali bidimensionali. 3.6 -

Un segnale 𝑠(𝑥, 𝑦), funzione di due variabili indipendenti, si dirà

periodico in 𝑥 e 𝑦 se l'equazione

𝑠(𝑥 + 𝑋, 𝑦 + 𝑌) = 𝑠(𝑥, 𝑦) (3.6.1)

ammette soluzioni

diverse da zero nelle

incognite 𝑋, 𝑌 indi-

pendenti dalla coppia

di variabili 𝑥, 𝑦. Ana-

logamente al caso

monodimensionale si

possono definire i

periodi principali 𝑋0

e 𝑌0.

La potenza

specifica del segnale

vale:

𝑃 = lim𝑋,𝑌→∞

1

𝑋𝑌∫ ∫ |𝑠(𝑥, 𝑦)|2𝑑𝑥𝑑𝑦

𝑌

2

−𝑌

2

𝑋

2

−𝑋

2

=1

𝑋0𝑌0∫ ∫ |𝑠(𝑥, 𝑦)|2𝑑𝑥𝑑𝑦

𝑌0𝑋0

(3.6.2)

dove l'integrale che compare all'ultimo membro della precedente è este-

so ad un dominio rettangolare qualsiasi di dimensioni 𝑋0 e 𝑌0 rispetti-

vamente. Se detto integrale ha valore finito e non nullo allora il segnale

periodico è a potenza finita.

Un segnale periodico bidimensionale a potenza finita può essere

sviluppato mediante la seguente serie doppia di Fourier:

𝑠(𝑥, 𝑦) = ∑ ∑ 𝑆𝑛,𝑚𝑒𝑗2𝜋(𝑛𝑓𝑥𝑥+𝑚𝑓𝑦𝑦)

𝑚=−∞

𝑛=−∞

(3.6.3)

dove:

𝑓𝑥 =1

𝑋0; 𝑓𝑦 =

1

𝑌0 (3.6.4)

sono generalmente denominate frequenze spaziali.

Fig.E 3.7

Page 83: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 3 - Segnali Periodici - 71

Il generico coefficiente 𝑆𝑛𝑚 della serie (3.6.3) è espresso dalla:

𝑆𝑛𝑚 =1

𝑋0𝑌0∫ ∫ 𝑠(𝑥, 𝑦)𝑒−𝑗2𝜋(𝑛𝑓𝑥𝑥+𝑚𝑓𝑦𝑦)𝑑𝑥𝑑𝑦

Y0X0

(3.6.5)

Esempio 3.3

Si consideri il segnale periodico 𝑠(𝑥, 𝑦) così definito:

𝑠(𝑥, 𝑦) =⊓ (𝑥 − 𝑘1𝑋02𝑎

)⊓ (𝑦 − 𝑘2𝑌02𝑏

) ;       ∀ 𝑘1, 𝑘2 ∈ ℤ, 𝑎 <𝑋02, 𝑏 <

𝑌02

che risulta essere uguale ad 1 nei domini tratteggiati in Fig.E 3.7 e nullo al-

trove.

Si ha:

𝑆𝑛𝑚 =1

𝑋0𝑌0∫ 𝑑𝑥∫ 𝑑𝑦𝑒

−𝑗2𝜋(𝑛𝑥

𝑋0+𝑚𝑦

𝑌0)

𝑏

−𝑏

𝑎

−𝑎,

  = 4𝑎𝑏

𝑋0𝑌0sinc (

2𝑛𝑎

𝑋0) sinc (

2𝑚𝑏

𝑌0)

Esempio 3.4

Si consideri il segnale 𝑠(𝑥, 𝑦) così definito:

𝑠(𝑥, 𝑦) =⊓(√(𝑥 − 𝑘1𝑋0)

2 + (𝑦 − 𝑘2𝑌0)2 −

𝑑

2

𝑑) ; ∀𝑘1, 𝑘2 ∈ ℤ

Esso è periodico ed, in particolare, diverso da 0 e pari ad 1 solo nei domini

tratteggiati in Fig.E 3.8.

Volendo valutare i coefficienti 𝑆𝑛𝑚 del suo sviluppo è opportuno espri-

mere la (3.6.5) in coordinate polari effettuando la nota trasformazione di va-

riabili:

{𝑥 = 𝜌cos𝜗;𝑦 = 𝜌sin𝜗;

come è noto:

𝑑𝑥𝑑𝑦 = |𝐽|𝑑𝜌𝑑𝜗

dove 𝐽 denota lo Jacobiano della trasformazione che vale:

𝐽 = |𝜕𝑥/𝜕𝜌 𝜕𝑥/𝜕𝜗𝜕𝑦/𝜕𝜌 𝜕𝑦/𝜕𝜗

| = |cos𝜗 −𝜌sin𝜗sin𝜗 𝜌𝑐os𝜗

| = 𝜌(cos2𝜗 + sin2𝜗) = 𝜌

si ha:

𝑆𝑛𝑚 =1

𝑋0𝑌0∫ ∫ 𝑒−𝑗2𝜋𝜌(𝑛𝑓𝑥cos𝜗+𝑚𝑓𝑦sin𝜗)𝜌𝑑𝜌𝑑𝜗

𝑑

0

𝜋

−𝜋

Ponendo adesso:

Page 84: Lezioni di TEORIA DEI SEGNALI.pdf

72 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

{

sin𝜓 =

𝑛𝑓𝑥

√(𝑛𝑓𝑥)2 + (𝑚𝑓𝑦)

2;

cos𝜓 =𝑚𝑓𝑦

√(𝑛𝑓𝑥)2 + (𝑚𝑓𝑦)

2

;

risulta:

𝑛𝑓𝑥cos𝜗 + 𝑚𝑓𝑦sin𝜗 = √(𝑛𝑓𝑥)2 + (𝑚𝑓𝑦)

2[sin𝜓cos𝜗 + cos𝜓sin𝜗]

= sin(𝜗 + 𝜓) ⋅ √(𝑛𝑓𝑥)2 + (𝑚𝑓𝑦)

2

Ponendo inoltre:

𝛾𝑛𝑚 = 2𝜋√(𝑛𝑓𝑥)2 + (𝑚𝑓𝑦)

2

𝑆𝑛𝑚 si scrive:

𝑆𝑛𝑚 =1

𝑋0𝑌0∫ 𝜌𝑑𝜌∫ 𝑒𝑗𝛾𝑛𝑚𝜌sin𝜗𝑑𝜗

𝜓+𝜋

𝜓−𝜋

𝑑

0

Per valutare 𝑆𝑛𝑚 si ricordi che:

𝐽𝑛(𝑥) =1

2𝜋∫ 𝑒𝑗(𝑥sin𝑧−𝑛𝑧)𝑑𝑧𝜋

−𝜋

dove Jn(𝑥) rappresenta la funzione di Bessel di prima specie di ordine 𝑛 che

si può anche esprimere mediante la

serie:

𝐽𝑛(𝑥) = (𝑥

2)𝑛

∑1

𝑘! (𝑛 + 𝑘)!(−

𝑥2

4)

𝑘∞

𝑘=0

Si ha pertanto:

𝑆𝑛𝑚 =2𝜋

𝑋0𝑌0∫ 𝜌𝐽0(𝜌𝛾𝑛𝑚)𝑑𝜌𝑑

0

Poiché, d'altra parte è:

∫ 𝑥𝐽0(𝑎𝑥)𝑑𝑥 =1

0

𝐽1(𝑎)

𝑎

ponendo 𝑥 =2𝜌

𝑑 si ottiene infine:

𝑆𝑛𝑚 =2𝜋𝑑

𝑋0𝑌0

𝐽1(𝛾𝑛𝑚𝑑)

𝛾𝑛𝑚

Fig.E 3.8

Page 85: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4

SEGNALI A ENERGIA FINITA

Deduzione elementare della trasformata di Fourier. 4.1 -

Sia 𝑠(𝑡) una funzione sommabile rappresentativa di un segnale 𝒔

ad energia finita, e sia

𝑠𝑇(𝑡) = 𝑠(𝑡)⊓ (𝑡

𝑇) (4.1.1)

la corrispondente funzione

troncata (vedi Fig. 4.1).

Il segnale 𝒔𝑇, indivi-

duato dalla (4.1.1), appartiene

allo spazio S𝑇 definito nel

§ 3.2 - . Pertanto una sua rap-

presentazione può essere

espressa mediante il seguente

insieme di funzioni ortonor-

mali:

𝑢𝑛(𝑡) =1

√𝑇𝑒𝑗

2𝜋𝑛𝑡

𝑇 ⊓ (𝑡

𝑇) ; 𝑛 = 0, ±1, ±2, … (4.1.2)

nella forma:

𝑠𝑇(𝑡) =1

√𝑇⊓ (

𝑡

𝑇) ∑ 𝛼𝑛𝑒

𝑗2𝜋𝑛𝑡

𝑇

𝑛=−∞

(4.1.3)

dove:

𝛼𝑛 =1

√𝑇∫ 𝑠(𝜏)𝑒−𝑗2𝜋𝑛

𝜏

𝑇𝑑𝜏

𝑇

2

−𝑇

2

(4.1.4)

Sostituendo la (4.1.4) nella (4.1.3) si ottiene:

𝑠𝑇(𝑡) = ⊓ (𝑡

𝑇) ∑

1

𝑇(∫ 𝑠(𝜏)𝑒−𝑗2𝜋𝑛

𝜏

𝑇𝑑𝜏

𝑇

2

−𝑇

2

) 𝑒𝑗2𝜋𝑛𝑡

𝑇

𝑛=−∞

(4.1.5)

Fig. 4.1 – Segnale 𝒔, segnale troncato 𝒔𝑇.

Page 86: Lezioni di TEORIA DEI SEGNALI.pdf

74 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

che ponendo:

𝑆 (𝑛

𝑇) = ∫ 𝑠(𝜏)𝑒−𝑗2𝜋𝑛

𝜏

𝑇𝑑𝜏

𝑇

2

−𝑇

2

(4.1.6)

diventa:

𝑠𝑇(𝑡) = ⊓ (𝑡

𝑇) ∑

1

𝑇𝑆 (𝑛

𝑇) 𝑒𝑗2𝜋

𝑛

𝑇𝑡

𝑛=−∞

(4.1.7)

Poiché:

𝑠(𝑡) = lim𝑇→∞

𝑠𝑇(𝑡) (4.1.8)

la funzione 𝑠(𝑡) può essere espressa effettuando nella (4.1.7) il limite su

indicato. A tal proposito si osservi che, al crescere di 𝑇, le quantità

𝑓𝑛 =𝑛

𝑇, aventi le dimensioni di una frequenza, tendono ad addensarsi nel

senso che la differenza 1

𝑇 fra due termini consecutivi tende a zero. Di

conseguenza al divergere di 𝑇, 𝑓𝑛 tende ad identificarsi con una variabile

continua 𝑓 e 1

𝑇 con il corrispondente incremento infinitesimo 𝑑𝑓. Da tali

considerazioni discende che le (4.1.6) e (4.1.7) tendono ad assumere ri-

spettivamente le forme:

a) 𝑆(𝑓) = ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

;

(4.1.9)

b)  𝑠(𝑡) = ∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓∞

−∞

;

che, se esistono, costituiscono rispettivamente le espressioni della tra-

sformata e dell’antitrasformata di Fourier.

La trasformata di Fourier di segnali ad energia finita. 4.2 -

L'applicazione delle (4.1.9) a segnali ad energia finita, in realtà,

non è sempre possibile, perché gli integrali che in esse compaiono per-

dono di significato quando le rispettive funzioni integrande non sono

sommabili. Poiché un segnale ad energia finita è rappresentabile median-

te una funzione a quadrato sommabile, che non è necessariamente an-

che sommabile, nasce la necessità di modificare opportunamente le de-

finizioni (4.1.9), al fine di pervenire alla definizione di una trasformazio-

ne di Fourier sulle funzioni appartenenti ad 𝔏2(ℝ).

Page 87: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 75

Quanto sopra, in altri termini, equivale ad individuare due opera-

tori 𝔉 ed ��, che costituiscano una naturale estensione delle (4.1.9), en-

trambi definiti in 𝔏2(ℝ), che, qualunque sia 𝑓 ∈ 𝔏2(ℝ), godano della

proprietà

𝑓 = ��[𝔉[𝑓]] = 𝔉[��[𝑓]] (4.2.1)

La trasformata in 𝕷(ℝ).

Se una funzione 𝑠(𝑡) appartiene a 𝔏(ℝ), cioè se:

∫ |𝑠(𝑡)|𝑑𝑡∞

−∞

< ∞ (4.2.2)

la definizione (4.1.9) a della trasformata di Fourier ha certamente senso

dato che risulta:

|𝑆(𝑓)| = |∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

| ≤ ∫ |𝑠(𝑡)|𝑑𝑡∞

−∞

< ∞ (4.2.3)

La trasformata di una funzione sommabile quindi certamente esiste ed è

limitata; inoltre essa è anche continua. Infatti, essendo |𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡| =

|𝑠(𝑡)|, l'applicazione del II Teorema di Lebesgue consente di scrivere:

lim𝑓→𝑓0

𝑆(𝑓) = lim𝑓→𝑓0

∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

= ∫ lim𝑓→𝑓0

𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡 𝑑𝑡∞

−∞

= ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓0𝑡𝑑𝑡∞

−∞

= 𝑆(𝑓0)

(4.2.4)

Si noti che la trasformata di una funzione in 𝔏(ℝ) non appartiene

necessariamente a 𝔏(ℝ). Per convincersene basta prendere in considera-

zione l’impulso rettangolare la cui trasformata di Fourier 𝔉 [⊓ (𝑡𝑇)] =

𝑇sinc(𝑓𝑇) non è sommabile in ℝ.

La trasformata in 𝕷(ℝ) ∩ 𝕷𝟐(ℝ).

Si consideri adesso una funzione 𝑠(𝑡) appartenente ad 𝔏2(ℝ) che

sia anche sommabile, cioè:

𝑠(𝑡) ∈ 𝔏(ℝ) ∩ 𝔏2(ℝ) (4.2.5)

Al fine di identificare lo spazio funzionale cui appartiene la tra-

sformata 𝑆(𝑓) di una tale funzione, si consideri una funzione ausiliaria

𝜙(𝑡) ∈ 𝔏(ℝ), limitata, la cui trasformata di Fourier Φ(𝑓) appartenga an-

Page 88: Lezioni di TEORIA DEI SEGNALI.pdf

76 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

ch'essa a 𝔏(ℝ) e per la quale si possa verificare che 𝔉−1[𝔉[𝜙(𝑡)]] =

𝜙(𝑡)6 e si consideri la seguente espressione:

𝐼(𝛿) = ∫ Φ(𝛿𝑓)|𝑆(𝑓)|2𝑑𝑓∞

−∞

(4.2.6)

che, se ha senso, definisce una funzione del parametro 𝛿 che si assume

reale positivo.

Tenendo conto della definizione (4.1.9),a possiamo scrivere:

|𝑆(𝑓)|2 = 𝑆(𝑓)𝑆∗(𝑓)

= ∫ 𝑠(𝑡1)𝑒−𝑗2𝜋𝑓𝑡1𝑑𝑡1

−∞

∫ 𝑠∗(𝑡2)𝑒𝑗2𝜋𝑓𝑡2𝑑𝑡2

−∞

= ∫ ∫ 𝑠(𝑡1)∞

−∞

𝑠∗(𝑡2)𝑒𝑗2𝜋𝑓(𝑡2−𝑡1)𝑑𝑡1𝑑𝑡2

−∞

(4.2.7)

Sostituendo nella (4.2.6) e invertendo l’ordine di integrazione otteniamo:

𝐼(𝛿) = ∫ Φ(𝛿𝑓)∫ ∫ 𝑠(𝑡1)∞

−∞

𝑠∗(𝑡2)𝑒𝑗2𝜋𝑓(𝑡2−𝑡1)𝑑𝑡1𝑑𝑡2

−∞

𝑑𝑓∞

−∞

= ∫ ∫ 𝑠(𝑡1)𝑠∗(𝑡2) [∫ Φ(𝛿𝑓)𝑒𝑗2𝜋𝑓(𝑡2−𝑡1)𝑑𝑓

−∞

] 𝑑𝑡1

−∞

𝑑𝑡2

−∞

(4.2.8)

ma Φ(𝑓) ∈ 𝔏(ℝ), sarà quindi sommabile anche Φ(𝛿𝑓) ∀ 𝛿 > 0. Potremo

pertanto scrivere:

∫ Φ(𝛿𝑓)𝑒𝑗2𝜋𝑓(𝑡2−𝑡1)𝑑𝑓∞

−∞

=1

𝛿∫ Φ(𝛿𝑓)𝑒𝑗2𝜋𝛿𝑓

𝑡2−𝑡1𝛿 𝑑(𝛿𝑓)

−∞

=1

𝛿𝜙 (

𝑡2 − 𝑡1𝛿

)

(4.2.9)

che sostituita nella (4.2.8) fornisce:

𝐼(𝛿) =1

𝛿∫ ∫ 𝑠(𝑡1)𝑠

∗(𝑡2)𝜙 (𝑡2 − 𝑡1𝛿

) 𝑑𝑡1𝑑𝑡2

−∞

−∞

(4.2.10)

Operando la trasformazione di variabili:

{

𝑡 = 𝑡1;

𝜏 =𝑡2 − 𝑡1𝛿

; (4.2.11)

6 Tale è ad esempio 𝜙(𝑡) = 𝑒−𝑡

2 la cui trasformata vale Φ(𝑓) = √𝜋𝑒−𝜋

2𝑓2 (vedi Esempio 4.6).

Page 89: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 77

il cui Jacobiano vale

𝐽 = |

𝜕𝑡1𝜕𝑡

𝜕𝑡1𝜕𝜏

𝜕𝑡2𝜕𝑡

𝜕𝑡2𝜕𝜏

| = |1 01 𝛿

| = 𝛿 (4.2.12)

la (4.2.10) diventa:

𝐼(𝛿) = ∫ ∫ 𝑠(𝑡)𝑠∗(𝑡 + 𝛿𝜏)𝜙(𝜏)𝑑𝑡𝑑𝜏∞

−∞

−∞

= ∫ 𝜙(𝜏) (∫ 𝑠(𝑡)𝑠∗(𝑡 + 𝛿𝜏)𝑑𝑡∞

−∞

)𝑑𝜏∞

−∞

(4.2.13)

applicando all'integrale più interno che compare all’ultimo membro della

precedente la disuguaglianza di Schwarz si ottiene:

|∫ 𝑠(𝑡)𝑠∗(𝑡 + 𝛿𝜏)𝑑𝑡∞

−∞

|

≤ (∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

⋅ ∫ |𝑠(𝑡 + 𝛿𝜏)|2𝑑𝑡∞

−∞

)

1

2

= ∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

(4.2.14)

da cui discende:

|𝐼(𝛿)| ≤ ∫ |𝜙(𝜏) (∫ 𝑠(𝑡)𝑠∗(𝑡 + 𝛿𝜏)𝑑𝑡∞

−∞

)| 𝑑𝜏∞

−∞

≤ ∫ |𝜙(𝜏)|𝑑𝜏∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

−∞

(4.2.15)

ne segue che l'integrale (4.2.6) esiste.

Eguagliando i secondi membri delle (4.2.6) e (4.2.13) si ottiene:

∫ Φ(𝛿𝑓)|𝑆(𝑓)|2𝑑𝑓∞

−∞

= ∫ 𝜙(𝜏) (∫ 𝑠(𝑡)𝑠∗(𝑡 + 𝛿𝜏)𝑑𝑡∞

−∞

)𝑑𝜏∞

−∞

(4.2.16)

poiché si ha:

|Φ(𝛿𝑓)||𝑆(𝑓)|2 ≤ |𝑆(𝑓)|2∫ |𝜙(𝜏)𝑒−𝑗2𝜋𝛿𝑓𝜏|𝑑𝜏∞

−∞

= |𝑆(𝑓)|2∫ |𝜙(𝜏)|𝑑𝜏∞

−∞

(4.2.17)

e, ricordando la (4.2.14):

Page 90: Lezioni di TEORIA DEI SEGNALI.pdf

78 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

|𝜙(𝜏) (∫ 𝑠(𝑡)𝑠∗(𝑡 + 𝛿𝜏)𝑑𝑡∞

−∞

)| ≤ |𝜙(𝜏)|∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

(4.2.18)

può applicarsi ad entrambi i membri della (4.2.16) il II Teorema di Le-

besgue, il quale ci assicura che si può scrivere:

lim𝛿→0

∫ Φ(𝛿𝑓)|𝑆(𝑓)|2𝑑𝑓∞

−∞

= Φ(0)∫ |𝑆(𝑓)|2𝑑𝑓∞

−∞

= lim𝛿→0

∫ 𝜙(𝜏) (∫ 𝑠(𝑡)𝑠∗(𝑡 + 𝛿𝜏)𝑑𝑡∞

−∞

)𝑑𝜏∞

−∞

= ∫ 𝜙(𝜏)𝑑𝜏∞

−∞

∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

(4.2.19)

Osservando che Φ(0) = ∫ 𝜙(𝜏)𝑑𝜏∞

−∞, dalla precedente si ottiene:

∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

= ∫ |𝑆(𝑓)|2𝑑𝑓∞

−∞

(4.2.20)

Concludendo si è pervenuti al fatto che, se 𝑠(𝑡) ∈ 𝔏(ℝ) ∩ 𝔏2(ℝ),

la sua trasformata 𝑆(𝑓) è una funzione a quadrato sommabile in ℝ.

Con procedimento analogo si può mostrare che se 𝑠1(𝑡) e 𝑠2(𝑡)

appartengono entrambe ad 𝔏(ℝ) ∩ 𝔏2(ℝ), dette rispettivamente 𝑆1(𝑓) e

𝑆2(𝑓) le loro trasformate, si ha:

∫ 𝑠1(𝑡)𝑠2∗(𝑡)𝑑𝑡

−∞

= ∫ 𝑆1(𝑓)𝑆2∗(𝑓)𝑑𝑓

−∞

(4.2.21)

La trasformata in 𝕷𝟐(ℝ).

Per definire la trasformata di Fourier di una funzione a quadrato

sommabile è opportuno riferirsi nuovamente alla funzione troncata

𝑠𝑇(𝑡).

La funzione 𝑠𝑇(𝑡), nella metrica di 𝔏2(ℝ), tende a 𝑠(𝑡). Ciò signi-

fica che la distanza euclidea tra 𝑠𝑇(𝑡) e 𝑠(𝑡) tende a zero quando 𝑇 → ∞:

lim𝑇→∞

∫ |𝑠(𝑡) − 𝑠𝑇(𝑡)|2𝑑𝑡

−∞

= 0 (4.2.22)

È bene osservare che la funzione 𝑠𝑇(𝑡) essendo identicamente

nulla all'esterno di un intervallo limitato, oltre ad essere a quadrato

sommabile, è anche sommabile in ℝ. Di conseguenza essa ammette tra-

sformata di Fourier 𝑆𝑇(𝑓):

Page 91: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 79

𝑆𝑇(𝑓) = ∫ 𝑠𝑇(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

−∞

(4.2.23)

che soddisfa la condizione (4.2.20), cioè:

‖𝑆𝑇(𝑓)‖ = ‖𝑠𝑇(𝑡)‖ (4.2.24)

inoltre è evidente che:

‖𝑆𝑇′(𝑓) − 𝑆𝑇(𝑓)‖ = ‖𝑠𝑇′(𝑡) − 𝑠𝑇(𝑡)‖ (4.2.25)

D'altro canto, poiché 𝑠𝑇(𝑡) ∈ 𝔏2(ℝ), comunque scelta una successione

𝑇𝑛 → ∞, esiste un 𝑛 tale che, 𝑝, 𝑞 > 𝑛 implicano ‖𝑠𝑇𝑝(𝑡) − 𝑠𝑇𝑞(𝑡)‖ < 휀.

Per la (4.2.25) si ha anche:

‖𝑆𝑇𝑝(𝑓) − 𝑆𝑇𝑞(𝑓)‖ < 휀 (4.2.26)

{𝑆𝑇𝑛(𝑓)}𝑛=1∞ è pertanto una successione di Cauchy, quindi, in virtù della

completezza di 𝔏2(ℝ), {𝑆𝑇𝑛(𝑓)}𝑛=1∞ è convergente,. Inoltre l'arbitrarietà

nella scelta della {𝑇𝑛}𝑛=1∞ assicura che la famiglia di funzioni 𝑆𝑇(𝑓), al di-

vergere di 𝑇, tende, secondo la metrica di 𝔏2(ℝ), ad una 𝑆(𝑓) ∈ 𝔏2(ℝ),

che si assume come trasformata di Fourier della funzione 𝑠(𝑡) ∈ 𝔏2(ℝ).

Esplicitando la funzione 𝑆𝑇(𝑓), quanto detto, equivale a scrivere

lim𝑇→∞

∫ |𝑆(𝑓) − ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

𝑇

2

−𝑇

2

|

2

𝑑𝑓∞

−∞

= 0 (4.2.27)

Per definire la trasformata inversa di una funzione 𝑆(𝑓) ∈ 𝔏2(ℝ)

si può procedere analogamente. In particolare, la trasformata troncata

𝑆𝐵(𝑓) = 𝑆(𝑓)⊓ (𝑓

𝐵) (4.2.28)

è anche sommabile, essendo identicamente nulla al di fuori di un inter-

vallo finito. Essa quindi è antitrasformabile, e la sua antitrasformata è:

��𝐹(𝑡) = ∫ 𝑆𝐵(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

−∞

(4.2.29)

che, evidentemente gode della proprietà:

∫ |𝑆𝐵(𝑓)|2𝑑𝑓

−∞

= ∫ |��𝐵(𝑡)|2𝑑𝑡

−∞

(4.2.30)

Page 92: Lezioni di TEORIA DEI SEGNALI.pdf

80 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Al crescere di 𝐹 la funzione ��𝐹(𝑡) ammette, nella metrica di

𝔏2(ℝ), il limite ��(𝑡), cioè:

lim𝐵→∞

∫ |��(𝑡) − ∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

𝐵

2

−𝐵

2

|

2

𝑑𝑡∞

−∞

= 0 (4.2.31)

Tale valore limite appartiene a 𝔏2(ℝ) e soddisfa la relazione:

∫ |��(𝑡)|2𝑑𝑡∞

−∞

= ∫ |𝑆(𝑓)|2𝑑𝑓∞

−∞

(4.2.32)

Resta quindi soltanto da dimostrare che, detta 𝑆(𝑓) la trasformata

di 𝑠(𝑡), la sua antitrasformata ��(𝑡) è uguale, almeno quasi ovunque, a

𝑠(𝑡).

A tal proposito, essendo ��(𝑡), 𝑠(𝑡) ∈ 𝔏2(ℝ), si può scrivere:

‖��(𝑡) − 𝑠(𝑡)‖2 = ∫ |��(𝑡) − 𝑠(𝑡)|2𝑑𝑡∞

−∞

= ∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

−∫ 𝑠(𝑡)��∗(𝑡)𝑑𝑡∞

−∞

−∫ 𝑠∗(𝑡)��(𝑡)𝑑𝑡∞

−∞

+∫ |��(𝑡)|2𝑑𝑡∞

−∞

(4.2.33)

Per le (4.2.20) e (4.2.32) risulta:

∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

= ∫ |��(𝑡)|2𝑑𝑡∞

−∞

= ∫ |𝑆(𝑓)|2𝑑𝑓∞

−∞

(4.2.34)

Inoltre in virtù delle (4.2.23) e (4.2.29) si ha:

∫ 𝑠(𝑡)��∗(𝑡)𝑑𝑡∞

−∞

= ∫ lim𝑇→∞

𝑠𝑇(𝑡) [ lim𝐵→∞

∫ 𝑆𝐵(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

−∞

]

𝑑𝑡∞

−∞

= lim𝑇→∞𝐵→∞

∫ 𝑠𝑇(𝑡) [∫ 𝑆𝐵∗ (𝑓)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑓

−∞

]∞

−∞

𝑑𝑡

(4.2.35)

Page 93: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 81

= lim𝑇→∞𝐵→∞

∫ 𝑆𝐵∗(𝑓) [∫ 𝑠𝑇(𝑡)𝑒

−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

] 𝑑𝑓∞

−∞

= lim𝑇→∞𝐵→∞

∫ 𝑆𝐵∗(𝑓)𝑆𝑇(𝑓)𝑑𝑓

−∞

= ∫ |𝑆(𝑓)|2𝑑𝑓∞

−∞

Con procedimento analogo si mostra anche che:

∫ 𝑠(𝑡)∗��(𝑡)𝑑𝑡∞

−∞

= ∫ |𝑆(𝑓)|2𝑑𝑓∞

−∞

(4.2.36)

Finalmente, sostituendo le (4.2.35) e, (4.2.36) nella (4.2.33) si ot-

tiene

‖��(𝑡) − 𝑠(𝑡)‖2 = 0 (4.2.37)

che necessariamente comporta:

𝑠(𝑡) =⏞𝑞.𝑜.

��(𝑡) (4.2.38)

Conclusioni

La trasformata di Fourier di una generica rappresentazione di un

segnale s ad energia finita è impicitamente definita dalla (4.2.27) che qui

ripetiamo per comodità:

lim𝑇→∞

∫ |𝑆(𝑓) − ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

𝑇

2

−𝑇

2

|

2

𝑑𝑓∞

−∞

= 0 (4.2.39)

Ciò equivale a dire che per trasformata di 𝑠(𝑡) si deve intendere

quella 𝑆(𝑓) che soddisfa la (4.2.27) cioè la cui distanza euclidea da

∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡𝑇

2

−𝑇

2

tende a zero al divergere di 𝑇.

Si osservi che se una 𝑆(𝑓) soddisfa la precedente per una rappre-

sentazione 𝑠(𝑡) di un segnale 𝒔, essa la soddisferà anche per tutte le altre

rappresentazioni dello stesso segnale, cioè per tutte le funzioni del tem-

po che differiscono da 𝑠(𝑡) solo su un insieme di misura nulla di punti.

Reciprocamente, l'antitrasformata di Fourier di una generica rap-

presentazione 𝑆 è definita dalla:

lim𝐵→∞

∫ |𝑠(𝑡) − ∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

𝐵

2

−𝐵

2

|

2

𝑑𝑡∞

−∞

= 0 (4.2.40)

Page 94: Lezioni di TEORIA DEI SEGNALI.pdf

82 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ciò equivale a dire che per antitrasformata di 𝑆(𝑓) si deve inten-

dere quella 𝑠(𝑡) che soddisfa la (4.2.31) cioè la cui distanza euclidea da

∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓𝐵

2

−𝐵

2

tende a zero al divergere di 𝐵. D’altro canto se funzio-

ne 𝑠(𝑡) soddisfa la (4.2.40) per una data 𝑆(𝑓) essa la soddisfa anche per

tutte le funzioni che ad 𝑆(𝑓) sono uguali quasi ovunque. 𝑠(𝑡) pertanto

può essere intesa come antitrasformata di ciascuna di esse.

In definitiva un segnale ad energia finita 𝒔 può essere quindi rap-

presentato indifferentemente sia mediante funzioni nel dominio del

tempo sia attraverso funzioni nel dominio della frequenza

É opportuno ricordare che se 𝒔 è rappresentabile mediante una

funzione che è anche sommabile, il limite (4.2.39) può essere calcolato

anche secondo la metrica di 𝔏(ℝ), cioè:

lim𝑇→∞

|𝑆(𝑓) − ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

𝑇

2

−𝑇

2

| = 0 (4.2.41)

La convergenza dell'integrale ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡𝑇

2

−𝑇

2

è quindi uniforme.

Conclusioni analoghe valgono per l'antitrasformata.

Principali proprietà della trasformata di Fourier di un 4.3 - segnale

In quel che segue per semplicità di esposizione la trasformata e

l'antitrasformata di Fourie verranno rispettivamente denotate in una del-

le forme equivalenti:

a) 𝑆(𝑓) = 𝔉[𝑠(𝑡)] = ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

;

(4.3.1)

b)   𝑠(𝑡) = 𝔉−1[𝑆(𝑓)] = ∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓;∞

−∞

Negli ultimi membri delle quali si sottintendono cioè gli eventuali pas-

saggi al limite nel senso di 𝔏2(ℝ).

La trasformata di una funzione risulta in generale complessa, essa

si può quindi scrivere in una delle forme:

𝑆(𝑓) = 𝑆𝑅(𝑓) + 𝑗𝑆𝐼(𝑓) = |𝑆(𝑓)|𝑒𝑗𝜗(𝑓) (4.3.2)

Page 95: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 83

dove 𝑆𝑅(𝑓) e 𝑆𝐼(𝑓) sono funzioni reali.

Dalla precedente si deduce che

per rappresentare un segnale nel domi-

nio della frequenza sono necessari due

diagrammi che mostrano gli andamenti

della parte reale 𝑆𝑅(𝑓) e del coefficiente

della parte immaginaria 𝑆𝐼(𝑓), o equiva-

lentemente, quelli del modulo |𝑆(𝑓)| e

dell'argomento 𝜗(𝑓) di 𝑆(𝑓) al variare di

𝑓. Questi ultimi due diagrammi prendo-

no rispettivamente il nome di spettro di

ampiezza e spettro di fase del segnale.

Trasformata di Fourier di segnali reali.

La trasformata di un segnale reale

adottando la notazione (4.3.1) si può

anche porre nella forma:

𝑆(𝑓) = ∫ 𝑠(𝑡)cos(2𝜋𝑓𝑡)𝑑𝑡∞

−∞

− 𝑗∫ 𝑠(𝑡)sin(2𝜋𝑓𝑡)𝑑𝑡∞

−∞

(4.3.3)

Pertanto, se 𝑠(𝑡) è reale, le quantità 𝑆𝑅(𝑓) e 𝑆𝐼(𝑓) assumono la forma:

a) 𝑆𝑅(𝑓) = ∫ 𝑠(𝑡)cos(2𝜋𝑓𝑡)𝑑𝑡∞

−∞

;

(4.3.4)

b)  𝑆𝐼(𝑓) = −∫ 𝑠(𝑡)sin(2𝜋𝑓𝑡)𝑑𝑡;∞

−∞

Dalle (4.3.4) si deduce che la parte reale (coefficiente della parte

immaginaria) di 𝑆(𝑓) è una funzione pari (dispari) di 𝑓; di conseguenza il

modulo |𝑆(𝑓)| è ancora una funzione pari e l'argomento 𝜗(𝑓) è una

funzione dispari di 𝑓; quindi:

𝑆(−𝑓) = 𝑆∗(𝑓) (4.3.5)

che equivale a dire che la trasformata di Fourier di un segnale reale deve

presentare una simmetria di tipo hermitiano.

In Fig. 4.2 sono mostrati gli andamenti tipici di 𝑆𝑅(𝑓) e 𝑆𝐼(𝑓) e

quelli di |𝑆(𝑓)| e 𝜗(𝑓) per un segnale reale.

Casi particolari:

Fig. 4.2 - Rappresentazione della tra-sformata di Fourier di un segnale rea-le.

Page 96: Lezioni di TEORIA DEI SEGNALI.pdf

84 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑠(𝑡)è a simmetria pari cioè:

𝑠(𝑡)=𝑠(−𝑡) (4.3.6)

Si osservi che gli integrandi nelle (4.3.4) risultano essere rispettivamente

funzioni pari e dispari del tempo. Quindi:

𝑎)    𝑆𝑅(𝑓) = 2∫ 𝑠(𝑡)cos(2𝜋𝑓𝑡)𝑑𝑡

0

;

𝑏)    𝑆𝐼(𝑓) = 0;

(4.3.7)

Pertanto:

𝑆(𝑓) = 2∫ 𝑠(𝑡)cos(2𝜋𝑓𝑡)𝑑𝑡∞

0

(4.3.8)

𝑠(𝑡) è a simmetria dispari cioè:

𝑠(𝑡) = −𝑠(−𝑡) (4.3.9)

Risulta:

𝑎)          𝑆𝑅(𝑓) = 0;

𝑏)         𝑆𝐼(𝑓) = −2∫ 𝑠(𝑡)sin(2𝜋𝑓𝑡)𝑑𝑡;∞

0

(4.3.10)

quindi:

𝑆(𝑓) = −2𝑗∫ 𝑠(𝑡)sin(2𝜋𝑓𝑡)𝑑𝑡∞

0

(4.3.11)

In altri termini, la trasformata di Fourier di una funzione pari è

pari, mentre la trasformata di una funzione dispari è una funzione im-

maginaria dispari.

Dalla (4.3.1),b si deduce:

𝑠(𝑡) = (∫ +∫ 𝑆( 𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓∞

0

0

−∞

) (4.3.12)

che, cambiando 𝑓 in −𝑓 nel primo integrale, diventa:

𝑠(𝑡) = ∫ [𝑆(−𝑓)𝑒−𝑗2𝜋𝑓𝑡 + 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡]𝑑𝑓∞

0

(4.3.13)

Tenendo presente la condizione (4.3.5), si riconosce facilmente

che le due quantità 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡 e 𝑆(−𝑓)𝑒−𝑗2𝜋𝑓𝑡 rappresentano due gran-

dezze complesse coniugate la cui somma è uguale al doppio della loro

Page 97: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 85

parte reale. Ciò permette, interpretando l'integrale come limite di una

somma di contributi elementari, di scrivere la (4.3.13) nella forma:

𝑠(𝑡) = 2∫ Re[𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡]𝑑𝑓∞

0

= 2∫ |𝑆(𝑓)|cos[2𝜋𝑓𝑡 + 𝜗(𝑓)]𝑑𝑓∞

0

= lim𝛥𝑓→0

∑2|𝑆(𝑛𝛥𝑓)|𝛥𝑓cos[2𝜋𝑛𝛥𝑓𝑡 + 𝜗(𝑛𝛥𝑓)]

𝑛=0

(4.3.14)

Osservandone l'ultimo membro,

si deduce che al modulo della trasforma-

ta di Fourier si può attribuire il significa-

to di densità spettrale di ampiezza, in

quanto esso è proporzionale al limite del

rapporto tra l'ampiezza dell'armonica di

frequenza 𝑛𝛥𝑓 e 𝛥𝑓 al tendere a zero di

quest'ultimo.

Esempio 4.1

La trasformata di Fourier dell'impulso

rettangolare di durataT :

𝑠(𝑡)=⊓ (𝑡

𝑇)

è reale e vale:

𝔉 [⊓ (𝑡

𝑇)] = ∫ 𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

𝑇

2

−𝑇

2

= {𝑇sin(𝜋𝑓𝑇)

𝜋𝑓𝑇; 𝑓 ≠ 0

𝑇; 𝑓 = 0

  = 𝑇sinc(𝑓𝑇)

Esempio 4.2

Sia 𝑢(𝑡) la funzione gradino unitario definita come segue:

u(𝑡) = {1; 𝑡 ≥ 00; 𝑡 < 0

La trasformata di Fourier dell'impulso esponenziale riportato in Fig.E 4.1a,

definito dalla

𝑠(𝑡) = u(𝑡)𝑒−𝑎𝑡

Fig.E 4.1

Page 98: Lezioni di TEORIA DEI SEGNALI.pdf

86 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

vale:

𝑆(𝑓) = ∫ 𝑒−𝑎𝑡𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

0

=1

𝑎 + 𝑗2𝜋𝑓

che si può anche scrivere(vedi Fig.E 4.1c):

𝑆(𝑓) =𝑎

𝑎2 + 4𝜋2𝑓2− 𝑗

2𝜋𝑓

𝑎2 + 4𝜋2𝑓2  =

𝑒−𝑗arctg(

2𝜋𝑓

𝑎)

√𝑎2 + 4𝜋2𝑓2

Gli spettri di ampiezza e fase dell'impulso esponenziale sono riportati

nella Fig.E 4.1b

Esempio 4.3

La trasformata di Fourier dell'impulso cosinusoidale:

𝑠(𝑡) = cos (𝜋𝑡

𝑇)⊓ (

𝑡

𝑇)

di Fig.E 4.2a, è reale e vale:

𝑆(𝑓) = ∫ cos (𝜋𝑡

𝑇) 𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

𝑇

2

−𝑇

2

  =2𝑇

𝜋

cos(𝜋𝑓𝑇)

1 − (2𝑓𝑇)2

il cui andamento è riportato in Fig.E 4.2 b.

Proprietà della trasformata di Fourier. 4.4 - Linearità

Se il segnale 𝒔 è ottenuto combinando linearmente 𝑘 segnali 𝒔𝑖,

cioè se esso si può esprimere nella forma:

𝒔 =∑𝑎𝑖

𝑘

𝑖=1

𝒔𝑖 (4.4.1)

con 𝑎𝑖 costanti reali o complesse, la sua trasformata vale:

Fig.E 4.2

Page 99: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 87

𝑆(𝑓) = ∫ ∑𝑎𝑖𝑠𝑖(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡 =

𝑘

𝑖=1

−∞

∑𝑎𝑖∫ 𝑠𝑖(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

−∞

𝑘

𝑖=1

(4.4.2)

Ponendo 𝑆𝑖 = 𝔉[𝑠𝑖], la precedente diviene:

𝑆 =∑𝑎𝑖𝑆𝑖

𝑘

𝑖=1

(4.4.3)

La trasformata di Fourier della combinazione lineare di 𝑘 segnali è quin-

di la combinazione lineare delle loro trasformate. L'operatore definito

dalla (4.3.1) è pertanto lineare.

Simmetria

Dalla (4.3.1)b, si ottiene:

𝑠(−𝑡) = ∫ 𝑆(𝑓)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑓∞

−∞

(4.4.4)

che, operando le sostituzioni 𝑡 ↔ 𝑓, si trasforma nella:

𝑠(−𝑓) = ∫ 𝑆(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

(4.4.5)

Dal confronto della precedente con la (4.3.1)a, si deduce che la

(4.4.5) può essere interpretata come la trasformata di Fourier del segnale

𝑆(𝑡). In altri termini se 𝑠(𝑡) ammette come trasformata 𝑆(𝑓), allora la

trasformata di 𝑆(𝑡) è uguale a 𝑠(−𝑓). In formule:

𝔉[𝑠(𝑡)] = 𝑆(𝑓) ⇒ 𝔉−1[𝑠(−𝑓)] = 𝑆(𝑡) (4.4.6)

Esempio 4.4

Applicando alla coppia di trasformate:

⊓ (𝑡

𝑇) ↔ 𝑇sinc(𝑓𝑇)

ricavata nell'Esempio 4.1 la proprietà di simmetria si ottiene:

𝐵sinc(𝐵𝑡) ↔⊓ (−𝑓

𝐵)

dove si è posto 𝑇 =1

𝐵. Si ha dunque:

𝔉[sinc(𝐵𝑡)] =1

𝐵⊓ (

𝑓

𝐵)

Segnale coniugato

Se 𝔉[𝑠(𝑡)] = 𝑆(𝑓) risulta:

Page 100: Lezioni di TEORIA DEI SEGNALI.pdf

88 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝔉[𝑠 ∗ (𝑡)] = ∫ 𝑠 ∗ (𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

−∞

= [∫ 𝑠(𝑡)𝑒𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

]

= 𝑆∗(−𝑓)

(4.4.7)

Se 𝑠(𝑡) è reale, essendo:

𝑠(𝑡) = 𝑠∗(𝑡) (4.4.8)

dalla (4.4.7) discende la nota condizione di simmetria hermitiana:

𝑆(𝑓) = 𝑆∗(−𝑓) (4.4.9)

Trasformata coniugata

Se 𝔉[𝑠(𝑡)] = 𝑆(𝑓) risulta:

𝔉−1[𝑆∗(𝑓)] = ∫ 𝑆∗(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

−∞

= [∫ 𝑆(𝑓)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑓∞

−∞

]

= 𝑠∗(−𝑡)

(4.4.10)

Se 𝑆(𝑓) è reale, dalla precedente discende facilmente:

𝑠(𝑡) = 𝑠∗(−𝑡) (4.4.11)

Traslazione nel dominio del tempo

La trasformata di Fourier del segnale 𝑠(𝑡 − 𝑡0), che si ottiene da

𝑠(𝑡) traslando l'origine dei tempi di una quantità pari a 𝑡0, (v.Fig. 4.3),

vale:

𝔉[𝑠(𝑡 − 𝑡0)] = ∫ 𝑠(𝑡 − 𝑡0)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

−∞

  = 𝑒−𝑗2𝜋𝑓𝑡0𝔉[𝑠(𝑡)] (4.4.12)

cioè la trasformata del segnale 𝑠(𝑡 − 𝑡0)

ritardato di 𝑡0 rispetto a 𝑠(𝑡) si ottiene

moltiplicando quella di 𝑠(𝑡) per

𝑒−𝑗2𝜋𝑓𝑡0. La traslazione di un segnale la-

scia quindi inalterato lo spettro di am-

piezza e aggiunge a quello di fase il

termine −2𝜋𝑓𝑡0 proporzionale alla fre-

quenza.

Traslazione nel dominio della frequenza

Detta 𝑆(𝑓) la trasformata del segnale 𝑠(𝑡), l'antitrasformata della

funzione 𝑆(𝑓 − 𝑓0), ottenuta da 𝑆(𝑓) traslando l'origine dell'asse delle

frequenze della quantità 𝑓0, vale:

Fig. 4.3 Segnale traslato

Page 101: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 89

𝔉−1[𝑆(𝑓 − 𝑓0)] = ∫ 𝑆(𝑓 − 𝑓0)𝑒

𝑗2𝜋𝑓𝑡𝑑𝑓∞

−∞

= 𝑒𝑗2𝜋𝑓0𝑡𝔉−1[𝑆(𝑓)]

(4.4.13)

cioè: l'antitrasformata di 𝑆(𝑓 − 𝑓0) è il prodotto tra il segnale 𝑠(𝑡) e il

fattore esponenziale 𝑒𝑗2𝜋𝑓0𝑡.

Cambiamento di scala

La trasformata di Fourier del segnale 𝑠(𝑎𝑡) dove 𝑎 è una costante

reale positiva vale:

𝔉[𝑠(𝑎𝑡)] = ∫ 𝑠(𝑎𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

=1

𝑎∫ 𝑠(𝑥)𝑒−𝑗2𝜋

𝑓

𝑎𝑥𝑑𝑥

−∞

=1

𝑎𝑆 (𝑓

𝑎) ; 𝑎 > 0

(4.4.14)

Dove 𝔉[𝑠(𝑡)] = 𝑆(𝑓).

In maniera analoga, si dimostra che, per 𝑎 < 0, si ha:

𝔉[𝑠(𝑎𝑡)] = −1

𝑎𝑆 (𝑓

𝑎) ; 𝑎 < 0 (4.4.15)

cosicché in generale può scriversi:

𝔉[𝑠(𝑎𝑡)] =1

|𝑎|𝑆 (𝑓

𝑎) ; 𝑎 ≠ 0 (4.4.16)

In particolare per 𝑎 = −1, dalla (4.4.16) discende:

𝔉[𝑠(−𝑡)] = 𝑆(−𝑓) (4.4.17)

L'inversione dell'asse dei tempi implica quella dell'asse delle frequenze.

Esempio 4.5

Se si pone 𝑡 = −𝑡 nell'impulso esponenziale

dell'Esempio 4.2, si ottiene il segnale 𝑠(𝑡) rap-

presentato in Fig.E 4.3 la cui trasformata di Fou-

rier è, in base alla (4.4.17):

𝑆(𝑓) =1

𝑎 − 𝑗2𝜋𝑓

In base a questo risultato e all'Esempio 4.2, si

può ottenere facilmente la trasformata del segna-

le 𝑠(𝑡) riportato in Fig.E 4.4a:

𝑠(𝑡) = 𝑒−𝑎|𝑡|

Fig.E 4.3

Page 102: Lezioni di TEORIA DEI SEGNALI.pdf

90 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

In effetti, essendo:

𝑠(𝑡) = u(𝑡)𝑒−𝑎𝑡 + u(−𝑡)𝑒𝑎𝑡

risulta:

𝑆(𝑓) =1

𝑎 + 𝑗2𝜋𝑓+

1

𝑎 − 𝑗2𝜋𝑓

=2𝑎

𝑎2 + (2𝜋𝑓)2

il cui andamento è mostrato

in Fig.E 4.4b.

Derivazione nel dominio del tempo

Derivando rispetto a 𝑡 ambo i membri della (4.3.1),b si ottiene:

𝑑𝑠(𝑡)

𝑑𝑡= ∫ (𝑗2𝜋𝑓)𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

−∞

(4.4.18)

ammesso che 𝑠(𝑡) sia continua e derivabile quasi dappertutto e che la

sua derivata appartenga ad 𝔏2(ℝ).

Pertanto la derivazione nel dominio del tempo si traduce nel do-

minio della frequenza nel prodotto di 𝑆(𝑓) per il fattore 𝑗2𝜋𝑓 cioè:

𝔉 [𝑑𝑠(𝑡)

𝑑𝑡] = (𝑗2𝜋𝑓)𝔉[𝑠(𝑡)] (4.4.19)

La proprietà sopra enunciata può facilmente estendersi alle deri-

vate di qualunque ordine. Se il segnale 𝑠(𝑡) è derivabile fino all’ordine

𝑛 − 1 con derivata continua, se la sua derivata 𝑛 − 1-esima è continua e

derivabile quasi ovunque e se inoltre 𝑑𝑛𝑠(𝑡)

𝑑𝑡𝑛∈ 𝔏2(ℝ), derivando successi-

vamente la (4.3.1),b si ottiene:

𝑑𝑛𝑠(𝑡)

𝑑𝑡𝑛= ∫ (𝑗2𝜋𝑓)𝑛𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑑𝑓

−∞

(4.4.20)

che equivale a scrivere:

𝔉 [𝑑𝑛𝑠(𝑡)

𝑑𝑡𝑛] = (𝑗2𝜋𝑓)𝑛𝔉[𝑠(𝑡)] (4.4.21)

Derivazione nel dominio della frequenza

Supposta 𝑆(𝑓) derivabile fino all’ordine 𝑛 − 1 con derivata conti-

nua, se la derivata 𝑛 − 1-esima è continua e derivabile quasi ovunque e

Fig.E 4.4

Page 103: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 91

se inoltre 𝑑𝑛𝑆(𝑓)

𝑑𝑓𝑛∈ 𝔏2(ℝ), derivando successivamente la (4.3.1)a rispetto

a 𝑓 si ottiene:

𝑑𝑛𝑆(𝑓)

𝑑𝑓𝑛= ∫ (−𝑗2𝜋𝑡)𝑛𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

−∞

(4.4.22)

cioè:

𝔉[(−𝑗2𝜋𝑡)𝑛𝑠(𝑡)] =𝑑𝑛𝑆(𝑓)

𝑑𝑓𝑛 (4.4.23)

ossia: la trasformata del segnale (−𝑗2𝜋𝑡)𝑛𝑠(𝑡) è data dalla derivata 𝑛-

esima, rispetto a 𝑓, della trasformata del segnale 𝑠(𝑡).

Esempio 4.6

Sia 𝑠(𝑡) = 𝑒−𝛼𝑡2 un impulso gaussiano. La cui derivata è:

𝑠′(𝑡) = −2𝛼𝑡𝑒−𝛼𝑡2= −2𝛼𝑡𝑠(𝑡)

dalla quale, tenendo presenti le (4.4.21) e (4.4.23), si deduce:

𝑑𝑆(𝑓)

𝑑𝑓= −

2𝜋2𝑓

𝛼𝑆(𝑓)

La trasformata 𝑆(𝑓) obbedisce quindi ad un’equazione differenziale dello

stesso tipo di quella soddisfatta dal segnale, solo che in tal caso, la costante

che compare nell'esponenziale vale 𝜋2

𝛼. Si avrà pertanto:

𝑆(𝑓) = 𝐴𝑒−𝜋2𝑓2

𝛼

in cui la quantità 𝐴 può determinarsi dalla condizione:

𝑆(0) = ∫ 𝑠(𝑡)𝑑𝑡∞

−∞

ottenuta ponendo 𝑓 = 0 nella (4.3.1),b.

Poiché è:

𝐴 = ∫ 𝑒−𝛼𝑡2𝑑𝑡

−∞

=1

√𝛼∫ 𝑒−𝑥

2𝑑𝑥

−∞

= √𝜋

𝛼

risulta:

𝑆(𝑓) = √𝜋

𝛼𝑒−

𝜋2𝑓2

𝛼

Convoluzione nel dominio del tempo

Siano 𝑠1(𝑡) e 𝑠2(𝑡) due segnali e 𝑆1(𝑓) e 𝑆2(𝑓) le loro trasformate.

Page 104: Lezioni di TEORIA DEI SEGNALI.pdf

92 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Il segnale 𝜙(𝑡) definito dalla7:

𝜙(𝑡) = 𝑠1 ∗ 𝑠2 = ∫ 𝑠1(𝜏)𝑠2(𝑡 − 𝜏)𝑑𝜏∞

−∞

(4.4.24)

prende il nome di convoluzione fra 𝑠1(𝑡) e 𝑠2(𝑡). Effettuando nella pre-

cedente la sostituzione di variabili 𝜏′ = 𝑡 − 𝜏, si ottiene:

𝜙(𝑡) = ∫ 𝑠1(𝑡 − 𝜏′)𝑠2(𝜏′)𝑑𝜏′∞

−∞

= 𝑠2 ∗ 𝑠1 (4.4.25)

pertanto la convoluzione gode della proprietà commutativa. Inoltre è fa-

cile verificare che per essa vale anche la proprietà distributiva.

Per meglio comprendere il significato della convoluzione in Fig.

4.4 sono indicate le varie fasi che conducono alla (4.4.24).

Una funzione si dice di durata limitata, o a supporto limitato, se esiste

un intervallo limitato tale che al di fuori di esso la funzione è quasi

ovunque nulla.

Dalla Fig. 4.4 si deduce anche che se i segnali convolvendi sono

rappresentabili mediante funzioni a durata limitata, anche la loro convo-

luzione lo è.

Infatti detti (𝑡1, 𝑇1) e (𝑡2, 𝑇2) gli intervalli di minima ampiezza che indi-

viduano le durate dei segnali 𝑠1(𝑡) e 𝑠2(𝑡) rispettivamente, la durata del

segnale 𝑠2(−𝜏) è anch'essa limitata dall’intervallo (−𝑇2, −𝑡2) e quindi la

durata di 𝑠2(𝑡 − 𝜏) è definita dall’intervallo (𝑡 − 𝑇2, 𝑡 − 𝑡2). È evidente

che l'integrale che compare nella (4.2.24) è nullo quando gli intervalli

(𝑡1, 𝑇1) e (𝑡 − 𝑇2, 𝑡 − 𝑡2) sono disgiunti. Questo accade quando è verifi-

cata una delle due condizioni:

𝑡1 > 𝑡 − 𝑡2; 𝑇1 < 𝑡 − 𝑇2 (4.4.26)

Ciò significa che la durata della convoluzione è individuata dalla

seguente catena di disuguaglianze:

𝑡1 + 𝑡2 < 𝑡 < 𝑇1 + 𝑇2 (4.4.27)

e quindi vale:

(𝑇1 − 𝑡1) + (𝑇2 − 𝑡) (4.4.28)

7 Si precisa che la convoluzione 𝜙(𝑡) = ∫ 𝑠1(𝜏)𝑠2(𝑡 − 𝜏)𝑑𝜏

−∞ va intesa come la funzione cui

tende nella metrica di 𝔏2(ℝ) l'integrale ∫ 𝑠1(𝜏)𝑠2(𝑡 − 𝜏)𝑑𝜏𝑇

−𝑇 quando 𝑇 diverge.

Page 105: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 93

Essa cioè è pari alla somma delle durate 𝛥1 e 𝛥2 dei due segnali.

È immediato verificare che se anche uno soltanto di due segnali

non è a durata limitata la convoluzione non ha durata limitata.

La trasformata di Fourier di 𝜙(𝑡) si ottiene dalla:

𝛷(𝑓) = ∫ 𝑒−𝑗2𝜋𝑓𝑡 [∫ 𝑠1(𝜏)𝑠2(𝑡 − 𝜏)𝑑𝜏∞

−∞

] 𝑑𝑡∞

−∞

(4.4.29)

che, invertendo l'ordine di integrazione e tenendo conto della (4.4.12), si

trasforma nella:

Fig. 4.4 - Convoluzione fra due segnali nel dominio del tempo

Page 106: Lezioni di TEORIA DEI SEGNALI.pdf

94 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝛷(𝑓) = ∫ 𝑠1(𝜏) [∫ 𝑠2(𝑡 − 𝜏)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

−∞

] 𝑑𝜏∞

−∞

= 𝑆2(𝑓)∫ 𝑠1(𝜏)𝑒−𝑗2𝜋𝑓𝜏𝑑𝜏

−∞

(4.4.30)

Si conclude quindi che:

𝛷(𝑓) = 𝔉(𝑠1 ∗ 𝑠2) = 𝑆1(𝑓) ⋅ 𝑆2(𝑓) (4.4.31)

In altri termini: la trasformata della convoluzione di due segnali 𝒔1e 𝒔2 è

il prodotto delle loro trasformate.

Convoluzione nel dominio della frequenza

Siano 𝑆1(𝑓) e 𝑆2(𝑓) le trasformate di Fourier dei segnali 𝒔1 e 𝒔2

rispettivamente. L'antitrasformata della convoluzione fra 𝑆1(𝑓) e 𝑆2(𝑓)

definita dalla8:

𝛷(𝑓) = 𝑆1 ∗ 𝑆2 = ∫ 𝑆1(𝜗)𝑆2(𝑓 − 𝜗)𝑑𝜗∞

−∞

= ∫ 𝑆1(𝑓 − 𝜗)𝑆2(𝜗)𝑑𝜗∞

−∞

(4.4.32)

vale:

𝜙(𝑡) = ∫ 𝑒𝑗2𝜋𝑓𝑡 [∫ 𝑆1(𝜗)𝑆2(𝑓 − 𝜗)𝑑𝜗∞

−∞

] 𝑑𝑓∞

−∞

(4.4.33)

che, invertendo l'ordine di integrazione e ricordando la (4.4.13), ci da:

𝜙(𝑡) = ∫ 𝑆1(𝜗)[∫ 𝑆2(𝑓 − 𝜗)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

−∞

]𝑑𝜗∞

−∞

= 𝑠2(𝑡)∫ 𝑆1(𝜗)𝑒𝑗2𝜋𝑓𝜗𝑑𝜗

−∞

= 𝑠1(𝑡)𝑠2(𝑡)

(4.4.34)

Pertanto la trasformata del prodotto di due segnali è data dalla convolu-

zione in frequenza delle loro trasformate.

Esempio 4.7

8 Per la convoluzione in frequenza valgono le considerazioni della nota relativa alla convoluzio-

ne nel dominio del tempo.

Page 107: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 95

La convoluzione di un rettango-

lo unitario di durata 𝑇 con se stesso

è espressa dalla:

𝜙(𝑡) = ∫ ⊓ (𝜏

𝑇)⊓ (

𝑡 − 𝜏

𝑇)𝑑𝜏

−∞

Quest'ultima, riferendosi alla Fig.E

4.5, si può riscrivere per 𝑡 ≥ 0:

𝜙(𝑡) = {∫ 𝑑𝜗 = 𝑇 − 𝑡;

𝑇

2−𝑡

−𝑇

2

0 < 𝑡 < 𝑇

0; 𝑡 > 𝑇

e analogamente per 𝑡 < 0:

𝜙(𝑡) = {∫ 𝑑𝜗 = 𝑇 + 𝑡;

𝑇

2

−𝑇

2+𝑡

− 𝑇 < 𝑡 < 0

0; 𝑡 < −𝑇

In definitiva introducendo l’impulso triangolare ∧ (𝑡) = (1 − |2𝑡|) ⊓ (𝑡) ri-

sulta:

𝜙(𝑡) = (𝑇 − |𝑡|)⊓ (𝑡

2𝑇) = 𝑇∧ ( 𝑡

2𝑇)

pertanto la convoluzione 𝜙(𝑡) è un impulso triangolare di durata 2𝑇ed altez-

za 𝑇.

Applicando la proprietà (4.4.31) si ha infine:

𝛷(𝑓) = 𝑇sinc(𝑓𝑇) ⋅ 𝑇sinc(𝑓𝑇) = 𝑇2sinc2(𝑓𝑇)

Esempio 4.8

Sia 𝑠(𝑡) un segnale la cui trasformata di

Fourier 𝑆(𝑓) si annulla al di fuori dell'inter-

vallo [−𝐵, 𝐵] come mostrato in Fig.E 4.6. La

trasformata del quadrato 𝑠2(𝑡) del segnale, si

può ottenere dalla convoluzione di 𝑆(𝑓) con

se stessa. Si può cioè scrivere:

𝔉[𝑠2(𝑡)] = ∫ 𝑆(𝜗)𝑆(𝑓 − 𝜗)𝑑𝜗∞

−∞

Risulta:

𝔉[𝑠2(𝑡)] = 0; |𝑓| > 2𝐵

Pertanto la trasformata di Fourier del segnale 𝑠2(𝑡) è nulla al di fuori dell'in-

tervallo [−2𝐵, 2𝐵].

Fig.E 4.5

Fig.E 4.6

Page 108: Lezioni di TEORIA DEI SEGNALI.pdf

96 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

In generale la trasformata di

Fourier di 𝑠𝑛(𝑡) vale zero al di

fuori dell'intervallo [−𝑛𝐵, 𝑛𝐵].

Esempio 4.9

Si consideri la seguente fun-

zione:

𝑆(𝑓) =⊓ (𝑓

2𝐵) sinc(𝑓𝑇)

(vedi Fig.E 4.8). ottenuta annul-

lando lo spettro dell'impulso

rettangolare al di fuori dell'in-

tervallo ,B B .

Risulta:

𝔉−1[𝑇𝑠𝑖𝑛𝑐(𝑓𝑇)] =⊓ (𝑡

𝑇)

Pertanto in virtù della (4.4.6) si

ottiene:

𝔉−1 [⊓ (𝑓

2𝐵)] = 2𝐵sinc(2𝐵𝑡)

L'antitrasformata vale quin-

di:

𝑠(𝑡) = 2𝐵∫ sinc[2𝐵(𝑡 − 𝜏)]𝑑𝜏

𝑇

2

−𝑇

2

che, si può esprimere in termini

della funzione "seno integrale":

𝑆𝑖(𝑥) = ∫sin𝑡

𝑡𝑑𝑡

𝑥

0

rappresentata in Fig.E 4.9. Si

noti che Si(𝑥) è una funzione dispari.

Effettuando il cambiamento di variabile 𝑥 = 𝜋2𝐵(𝑡 − 𝜏), 𝑠(𝑡) diviene:

𝑠(𝑡) =1

𝜋[Si (𝜋2𝐵 (𝑡 +

𝑇

2)) − Si (𝜋2𝐵 (𝑡 −

𝑇

2))]

In Fig.E 4.7 è riportato l'andamento di 𝑠(𝑡) in funzione del tempo. Dalla

stessa figura si evince che un troncamento in frequenza del segnale comporta

l'eliminazione delle discontinuità presenti nell'impulso rettangolare origina-

Fig.E 4.8

Fig.E 4.9

Fig.E 4.7

Page 109: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 97

rio nei punti 𝑡 = ±𝑇 2⁄ . Per contro la durata nel tempo di un segnale il cui

spettro è null o al di fuori di un certo intervallo di frequenze è infinita.

Nella Tabella 4.1 sono riassunte tutte le proprietà della trasfor-

mata di Fourier precedentemente discusse.

Tabella 4.1

Proprietà della trasformata di Fourier

Proprietà Segnale Trasformata Note

Linearità ∑𝑎𝑖𝑠𝑖(𝑡)

𝑘

𝑖=1

∑𝑎𝑖𝑆𝑖(𝑓)

𝑘

𝑖=1

𝑎𝑖 cos-

tanti

Simmetria 𝑆(𝑡) 𝑠(−𝑓)

Segnale coniuga-

to 𝑠 ∗ (𝑡) 𝑆 ∗ (−𝑓)

Trasformata co-

niugata 𝑠 ∗ (−𝑡) 𝑆 ∗ (𝑓)

Traslazione nel

dominio del

tempo

𝑠(𝑡 − 𝑡0) 𝑒−𝑗2𝜋𝑓𝑡0𝑆(𝑓) ∀ 𝑡0

∈ ℝ

Traslazione nel

dominio della

frequenza

𝑒𝑗2𝜋𝑓0𝑡𝑠(𝑡) 𝑆(𝑓 − 𝑓0) ∀ 𝑓0

∈ ℝ

Cambiamento di

scala 𝑠(𝑎𝑡)

1

|𝑎|𝑆 (𝑓

𝑎) 𝑎 ≠ 0

Derivazione nel

dominio del

tempo

𝑑𝑛𝑠(𝑡)

𝑑𝑡𝑛 (𝑗2𝜋𝑓)𝑛𝑆(𝑓)

Derivazione nel

dominio della

frequenza

(−𝑗2𝜋𝑡)𝑛𝑠(𝑡) 𝑑𝑛𝑆(𝑓)

𝑑𝑓𝑛

Convoluzione

nel dominio del

tempo

∫ 𝑠1(𝜏)𝑠2(𝑡 − 𝜏)𝑑𝜏∞

−∞

𝑆1(𝑓) ⋅ 𝑆2(𝑓)

Convoluzione

nel dominio del-

la frequenza

𝑠1(𝑡) ⋅ 𝑠2(𝑡) ∫ 𝑆1(𝜗)𝑆2(𝑓 − 𝜗)𝑑𝜗∞

−∞

Page 110: Lezioni di TEORIA DEI SEGNALI.pdf

98 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Limitazioni dello spettro di ampiezza di un segnale. 4.5 -

Sia 𝒔 un segnale rappresentabile mediante una funzione 𝑠(𝑡)

sommabile che sia derivabile a tratti. La sua trasformata di Fourier si

può allora scrivere:

𝑆(𝑓) = ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

= ∑ ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡𝑡𝑖

𝑡𝑖−1

𝑖=−∞

= ∑ {[𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡

−𝑗2𝜋𝑓]𝑡𝑖−1+

𝑡𝑖−

+1

𝑗2𝜋𝑓∫ 𝑠′(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡𝑡𝑖

𝑡𝑖−1

}

𝑖=−∞

=1

𝑗2𝜋𝑓∑ [(𝑠(𝑡𝑖

+) − 𝑠(𝑡𝑖−))𝑒−𝑗2𝜋𝑓𝑡𝑖 +∫ 𝑠′(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

𝑡𝑖

𝑡𝑖−1

]

𝑖=−∞

(4.5.1)

essendo {𝑡𝑛} l'insieme degli estremi degli intervalli all'interno dei quali

𝑠(𝑡) risulta derivabile. Dalla precedente si deduce la limitazione:

|𝑆(𝑓)|

=1

|2𝜋𝑓|| ∑ [(𝑠(𝑡𝑖

+) − 𝑠(𝑡𝑖−))𝑒−𝑗2𝜋𝑓𝑡𝑖 +∫ 𝑠′(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

𝑡𝑖

𝑡𝑖−1

]

𝑖=−∞

|

≤1

|2𝜋𝑓|∑ (|𝑠(𝑡𝑖

+) − 𝑠(𝑡𝑖−)| + ∫ |𝑠′(𝑡)|𝑑𝑡

𝑡𝑖

𝑡𝑖−1

)

𝑖=−∞

(4.5.2)

che, se la sommatoria che vi compare si mantiene finita, comporta:

|𝑆(𝑓)| ≤𝑘1

|2𝜋𝑓| (4.5.3)

dove si è posto:

𝑘1 = ∑ (|𝑠(𝑡𝑖+) − 𝑠(𝑡𝑖

−)| + ∫ |𝑠′(𝑡)|𝑑𝑡𝑡𝑖

𝑡𝑖−1

)

𝑖=−∞

(4.5.4)

se 𝑠(𝑡) è continua, la (4.5.4) si semplifica nella:

𝑘1 = ∫ |𝑠′(𝑡)|𝑑𝑡∞

−∞

(4.5.5)

In queste ipotesi, se 𝑠′(𝑡) è a sua volta derivabile a tratti, la (4.5.1) può

ulteriormente scriversi:

Page 111: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 99

𝑆(𝑓) = ∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

= ∑ {1

𝑗2𝜋𝑓∫ 𝑠′(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡𝑡𝑖

𝑡𝑖−1

} =

𝑖=−∞

−1

(2𝜋𝑓)2∑ [(𝑠′(��𝑖

+) − 𝑠′(��𝑖−))𝑒−𝑗2𝜋𝑓𝑡𝑖 +∫ 𝑠″(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

��𝑖

��𝑖−1

]

𝑖=−∞

(4.5.6)

nella quale si è fatto riferimento all'insieme {��𝑛} ⊇ {𝑡𝑛} degli estremi de-

gli intervalli all'interno dei quali la 𝑠′(𝑡) è derivabile. La (4.5.6) comporta

evidentemente la ulteriore limitazione:

|𝑆(𝑓)| ≤𝑘2

|2𝜋𝑓|2 (4.5.7)

con

𝑘2 = ∑ (|𝑠′(��𝑖+) − 𝑠′(��𝑖

−)| + ∫ |𝑠″(𝑡)|𝑑𝑡��𝑖

��𝑖−1

)

𝑖=−∞

(4.5.8)

ovvero se anche 𝑠″(𝑡) è continua:

𝑘2 = ∫ |𝑠″(𝑡)|𝑑𝑡∞

−∞

(4.5.9)

È immediato constatare che il procedimento seguito può iterarsi

fino all'ordine 𝑛 di derivazione se la derivata di ordine 𝑛 − 2 è continua

e derivabile a tratti e se la derivata 𝑛 − 1 pur essendo derivabile a tratti

presenta discontinuità non eliminabili.

Si ottengono così le seguenti limitazioni per lo spettro di ampiez-

za del segnale:

|𝑆(𝑓)| ≤𝑘𝑖

|2𝜋𝑓|𝑖; 𝑖 = 0, … , 𝑛 (4.5.10)

in cui si è anche tenuto conto che |𝑆(𝑓)| ≤ ∫ |𝑠(𝑡)|∞

−∞𝑑𝑡 = 𝑘0.

Dalle (4.5.10) si deduce che la trasformata del segnale è infinite-

sima almeno di ordine 𝑛 rispetto ad 1

𝑓. Inoltre l'insieme delle (4.5.10) può

essere utilizzato per delimitare nel piano 𝑓, |𝑆(𝑓)| la regione che contie-

ne lo spettro di ampiezza del segnale.

Si osservi che un ragionamento analogo può essere sviluppato per de-

durre delle limitazioni sul segnale nota che sia la sua trasformata.

Page 112: Lezioni di TEORIA DEI SEGNALI.pdf

100 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Esempio 4.10

Sia dato il segnale s rappre-

sentato in Fig.E 4.10. La sua tra-

sformata è data da:

𝑆(𝑓) = 3sinc(𝑓)sinc(3𝑓)

Poiché il segnale è rappresen-

tabile mediante una funzione con-

tinua e derivabile a tratti per essa valgono, per 𝑖 = 0,1,2, le limitazioni

(4.5.10) con:

{

𝑘0 = ∫ |𝑠(𝑡)|𝑑𝑡

−∞

= 3

𝑘1 = ∫ |𝑠′(𝑡)|𝑑𝑡∞

−∞

= 2

𝑘2 = ∑ (|𝑠′(𝑡𝑖+) − 𝑠′(𝑡𝑖

−)| + ∫ |𝑠″(𝑡)|𝑑𝑡𝑡𝑖

𝑡𝑖−1

)

𝑖=−∞

= ∑ (|𝑠′(𝑡𝑖+) − 𝑠′(𝑡𝑖

−)|)

𝑖=−∞

= 4

da cui:

{

|𝑆(𝑓)| ≤ 3;

 |𝑆(𝑓)| ≤1

𝜋|𝑓|;

 |𝑆(𝑓)| ≤1

𝜋2𝑓2;

In Fig.E 4.11 sono rap-

presentate graficamente la

trasformata di Fourier e le

limitazioni ricavate per lo

spettro di ampiezza, tenen-

do conto del fatto che la tra-

sformata del segnale consi-

derato è reale, in quanto il

segnale in oggetto è rappresentato da una funzione reale pari.

Segnali bidimensionali. 4.6 -

Lo studio di un segnale nel dominio della frequenza, affrontato

nel caso di segnali monodimensionali, può essere esteso al caso di se-

gnali bidimensionali o, multidimensionali in generale.

Sia 𝑠(𝑥, 𝑦) un segnale bidimensionale a energia finita tale cioè che

risulti:

Fig.E 4.10

Fig.E 4.11

Page 113: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 101

𝐸 = ∫ ∫ |𝑠(𝑥, 𝑦)|2𝑑𝑥𝑑𝑦∞

−∞

−∞

< ∞ (4.6.1)

la trasformata di Fourier 𝑆(𝑓𝑥, 𝑓𝑦) di 𝑠(𝑥, 𝑦) è definita come segue:

𝑆(𝑓𝑥, 𝑓𝑦) = 𝔉[𝑠(𝑥, 𝑦)] = ∫ ∫ 𝑠(𝑥, 𝑦)𝑒−𝑗2𝜋(𝑓𝑥𝑥+𝑓𝑦𝑦)𝑑𝑥𝑑𝑦∞

−∞

−∞

(4.6.2)

e la corrispondente antitrasformata:

𝑠(𝑥, 𝑦) = 𝔉−1[𝑆(𝑓𝑥, 𝑓𝑦)]

= ∫ ∫ 𝑆(𝑓𝑥, 𝑓𝑦)𝑒𝑗2𝜋(𝑓𝑥𝑥+𝑓𝑦𝑦)𝑑𝑓𝑥𝑑𝑓𝑦

−∞

−∞

(4.6.3)

Nella (4.6.1) e (4.6.2), le variabili 𝑓𝑥 ed 𝑓𝑦 rappresentano le frequenze

spaziali che corrispondono alla variabile 𝑓 utilizzata per i segnali mo-

nodimensionali.

La trasformata bidimensionale gode di proprietà analoghe a quel-

le già viste nello studio della trasformata monodimensionale.

Le predette proprietà vengono qui di seguito elencate, ometten-

done le dimostrazioni,

Linearità

Se 𝑠(𝑥, 𝑦) = 𝑘1𝑠1(𝑥, 𝑦) + 𝑘2𝑠2(𝑥, 𝑦) con 𝑘1 e 𝑘2 costanti comples-

se, è:

𝑆(𝑓𝑥, 𝑓𝑦) = 𝑘1𝑆1(𝑓𝑥, 𝑓𝑦) + 𝑘2𝑆2(𝑓𝑥, 𝑓𝑦) (4.6.4)

essendo 𝑆(𝑓𝑥, 𝑓𝑦), 𝑆1(𝑓𝑥, 𝑓𝑦) e 𝑆2(𝑓𝑥, 𝑓𝑦) le trasformate di 𝑠(𝑥, 𝑦), 𝑠1(𝑥, 𝑦)

e 𝑠2(𝑥, 𝑦) rispettivamente.

Traslazione nel dominio dello spazio e della frequenza

Se 𝑠(𝑥, 𝑦) è un segnale che ammette trasformata di Fourier data da

𝑆(𝑓𝑥 , 𝑓𝑦) risulta:

𝔉[𝑠(𝑥 − 𝜏𝑥, 𝑦 − 𝜏𝑦)] = 𝑒−𝑗2𝜋(𝑓𝑥𝜏𝑥+𝑓𝑦𝜏𝑦)𝑆(𝑓𝑥, 𝑓𝑦) (4.6.5)

come pure:

𝔉−1[𝑆(𝑓𝑥 − 𝜑𝑥 , 𝑓𝑦 − 𝜑𝑦)] = 𝑒𝑗2𝜋(𝜑𝑥𝑥+𝜑𝑦𝑦)𝑠(𝑥, 𝑦) (4.6.6)

Cambiamento di scala.

Se 𝑆(𝑓𝑥, 𝑓𝑦) è la trasformata di Fourier di 𝑠(𝑥, 𝑦) si ha:

Page 114: Lezioni di TEORIA DEI SEGNALI.pdf

102 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝔉[𝑠(𝑎𝑥, 𝑏𝑦)] =1

|𝑎𝑏|𝑆 (𝑓𝑥𝑎,𝑓𝑦

𝑏) ; 𝑎, 𝑏 ≠ 0 (4.6.7)

Convoluzione nel dominio dello spazio e della frequenza

Se 𝑠1(𝑥, 𝑦) e 𝑠2(𝑥, 𝑦) sono due segnali le cui trasformate sono ri-

spettivamente 𝑆1(𝑓𝑥 , 𝑓𝑦) e 𝑆2(𝑓𝑥 , 𝑓𝑦), il segnale 𝑠(𝑥, 𝑦) definito dalla:

𝜙(𝑥, 𝑦) = 𝑠1 ∗∗ 𝑠2

= ∫ ∫ 𝑠1(𝑥0, 𝑦0)𝑠2(𝑥 − 𝑥0, 𝑦 − 𝑦0)𝑑𝑥0𝑑𝑦0

−∞

−∞

(4.6.8)

è detto convoluzione di 𝑠1(𝑥, 𝑦) con 𝑠2(𝑥, 𝑦); esso è trasformabile se-

condo Fourier e la sua trasformata vale:

𝛷(𝑓𝑥, 𝑓𝑦) = 𝑆1(𝑓𝑥, 𝑓𝑦) ⋅ 𝑆2(𝑓𝑥, 𝑓𝑦) (4.6.9)

In maniera analoga, alla convoluzione nel dominio della frequen-

za:

𝛷(𝑓𝑥, 𝑓𝑦) = 𝑆1 ∗∗ 𝑆2

= ∫ ∫ 𝑆1(𝜙0, 𝜗0)𝑆2(𝑓𝑥 − 𝜙0, 𝑓𝑦 − 𝜗0)𝑑𝜙0𝑑𝜗0

−∞

−∞

(4.6.10)

corrisponde il segnale 𝜙(𝑥, 𝑦):

𝜙(𝑥, 𝑦) = 𝑠1(𝑥, 𝑦) ⋅ 𝑠2(𝑥, 𝑦) (4.6.11)

dove 𝑠1(𝑥, 𝑦) ed 𝑠2(𝑥, 𝑦) sono rispettivamente le trasformate inverse di

𝑆1(𝑓𝑥, 𝑓𝑦) e 𝑆2(𝑓𝑥, 𝑓𝑦).

Esempio 4.11

Si consideri il segnale 𝑠(𝑥, 𝑦) che vale 1 nella re-

gione tratteggiata di Fig.E 4.12 ed è identicamente

nullo altrove. La sua trasformata bidimensionale vale:

𝑆(𝑓𝑥 , 𝑓𝑦) = ∫ 𝑒−𝑗2𝜋𝑓𝑥𝑥𝑑𝑥

𝑎

2

−𝑎

2

∫ 𝑒−𝑗2𝜋𝑓𝑦𝑦𝑑𝑦

𝑏

2

−𝑏

2

= 𝑎𝑏 ⋅ sinc(𝑓𝑥𝑎)sinc(𝑓𝑦𝑏)

Fig.E 4.12

Page 115: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 103

Vedi Fig.E 4.13

Trasformazioni di variabili

Se il segnale 𝑠(𝑥, 𝑦) presenta una simmetria di tipo circolare è op-

portuno rappresentare sia il segnale sia la sua trasformata 𝑆(𝑓𝑥, 𝑓𝑦) in

coordinate polari ponendo:

{𝑥 = 𝜌 cos𝜙𝑦 = 𝜌 sin𝜙

;        {𝑓𝑥 = 𝛾 cos 𝜗𝑓𝑦 = 𝛾 sin 𝜗

; (4.6.12)

Si può scrivere:

𝑠(𝑥, 𝑦) = 𝑠(𝜌 cos𝜙 , 𝜌 sin𝜙 , 𝑦) = 𝑓(𝜌) (4.6.13)

Tenendo presente che i determinanti Jacobiani delle trasformazioni

(4.6.13) valgono 𝜌 e 𝛾 rispettivamente e che risulta:

𝑓𝑥𝑥 + 𝑓𝑦𝑦 = 𝜌𝛾(cos 𝜙 cos 𝜗 + sin𝜙 sin 𝜗) = 𝜌𝛾 cos(𝜙 − 𝜗) (4.6.14)

La (4.6.2) nei nuovi riferimenti si riscrive come segue:

𝑆(𝛾, 𝜗) = ∫ 𝜌𝑓(𝜌)∫ 𝑒−𝑗2𝜋𝜌𝛾 cos(𝜙−𝜗))𝑑𝜙𝜋

−𝜋

𝑑𝜌∞

0

(4.6.15)

Fig.E 4.13

Page 116: Lezioni di TEORIA DEI SEGNALI.pdf

104 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ricordando che l'espressione della funzione di Bessel di prima

specie di ordine zero vale:

𝐽0(𝑧) =1

2𝜋∫ 𝑒−𝑗𝑧 cos𝑢𝑑𝑢𝜋

−𝜋

(4.6.16)

la (4.6.16) si può riscrivere:

𝑆(𝛾 cos 𝜗 , 𝛾 sin 𝜗) = 2𝜋∫ 𝜌𝑓(𝜌)𝐽0(2𝜋𝜌𝛾)𝑑𝜌∞

0

= 𝐹(𝛾) (4.6.17)

È immediato constatare che la precedente è indipendente dalla variabile

𝜗 pertanto si conclude che la simmetria circolare del segnale comporta

quella della sua trasformata e viceversa.

La (4.6.17) è detta trasformata di Hankel:

ℋ[𝑓(𝜌)] = 2𝜋∫ 𝜌𝑓(𝜌)𝐽0(2𝜋𝜌𝛾)𝑑𝜌∞

0

(4.6.18)

Si può facilmente verificare che, in virtù della simmetria pari di

0( )J z , si ha:

ℋ-1[𝐹(𝛾)] = 2𝜋∫ 𝛾𝐹(𝛾)𝐽0(2𝜋𝜌𝛾)𝑑𝛾∞

0

= 𝑓(𝜌) (4.6.19)

Pertanto la trasformata di Hankel inversa ha la stessa struttura di quella

diretta.

Esempio 4.12

Nel caso in cui il segnale 𝑠(𝑥, 𝑦) valga 1 nel

cerchio tratteggiato in Fig.E 4.14 e 0 altrove, si

ha:

𝐹(𝛾) = ∫ 𝑑𝜙 ∫ 𝜌𝑒−𝑗2𝜋𝜌𝛾 cos(𝜙−𝜗)𝑑𝜌𝑅

0

𝜋

−𝜋=

∫ ∫ 𝜌𝑒−𝑗2𝜋𝜌𝛾 cos(𝜙−𝜗)𝑑𝜙𝜋

−𝜋𝑑𝜌

𝑅

0  =

2𝜋 ∫ 𝜌𝐽0(2𝜋𝜌𝛾)𝑑𝜌𝑅

0

Poiché risulta:

∫ 𝑧𝐽0(𝑧)𝑑𝑧𝑥

0

= 𝑥𝐽1(𝑥)

si ha:

Fig.E 4.14

Page 117: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 4 - Segnali a Energia Finita - 105

2𝜋∫ 𝜌𝐽0(2𝜋𝜌𝛾)𝑑𝜌𝑅

0

=𝑅

𝛾⋅ 𝐽1(2𝜋𝑅𝛾)

Vedi Fig.E 4.15

Fig.E 4.15

Page 118: Lezioni di TEORIA DEI SEGNALI.pdf
Page 119: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5

SEGNALI A POTENZA FINITA

Cenni di teoria delle distribuzioni. 5.1 -

Una classe di segnali particolarmente importante è quella dei se-

gnali a potenza finita; i quali, non essendo rappresentabili mediante fun-

zioni a quadrato sommabile, non ammettono trasformata di Fourier. Al

fine di estendere a tali segnali la rappresentazione nel dominio della fre-

quenza è necessario introdurre il concetto di distribuzione.

A tal fine si premettono alcune definizioni:

un’applicazione 𝑔(⋅) si dice lineare se per ogni coppia di elementi 𝑥, 𝑦

del suo dominio risulta:

𝑔(𝜆𝑥 + 𝜇𝑦) = 𝜆𝑔(𝑥) + 𝜇𝑔(𝑦); ∀𝜆 ∧ 𝜇 ∈ ℂ (5.1.1)

Si noti che il dominio e l'insieme immagine di 𝑔(⋅) devono necessaria-

mente essere spazi vettoriali.

Un’applicazione 𝑔(⋅) si dice continua se ad ogni successione di

elementi del suo dominio che sia convergente, secondo il criterio di

convergenza in esso individuato, corrisponde una successione di imma-

gini convergente in base al criterio di convergenza individuato nel co-

dominio dipendentemente dalla sua struttura topologica.

Ciò premesso si definisce insieme delle funzioni di prova lo spa-

zio (lineare) D delle funzioni 𝜙(𝑡) a valori reali o complessi, definite in

ℝ, ivi a supporto limitato e dotate di derivate di qualunque ordine.

Per supporto s’intende la chiusura dell'insieme che contiene punti

del dominio in cui la funzione assume valori diversi da zero.

Si noti che lo spazio D non è vuoto, poiché la funzione:

𝜙𝑎(𝑡) = 𝑒(

𝑎2

𝑡2−𝑎2)⊓ (

𝑡

2𝑎) (5.1.2)

Page 120: Lezioni di TEORIA DEI SEGNALI.pdf

108 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

vi appartiene (vedi Fig. 5.1).

In D s’introduce il seguente

criterio di convergenza: una suc-

cessione {𝜙𝑘}𝑘=0∞ converge alla fun-

zione 𝜙 di D se:

- esiste un aperto limitato 𝐴 che

contiene i supporti delle funzioni

𝜙𝑘;

- per ogni 𝑡 ∈ ℝ e qualunque sia

l'ordine 𝑛 di derivazione si ha:

lim𝑘→∞

𝜙𝑘(𝑛)(𝑡) = 𝜙(𝑛)(𝑡); ∀ 𝑡 ∈ 𝑅 ⋀ ∀ 𝑛 ∈ ℕ (5.1.3)

Ciò premesso si dice distribuzione 𝑇 ogni applicazione lineare e

continua, a valori generalmente complessi, definita sullo spazio D delle

funzioni di prova. Il valore assunto dalla distribuzione 𝑇 in corrispon-

denza ad una data funzione di prova 𝜙 sarà nel seguito indifferentemen-

te indicato mediante una delle seguenti forme:

𝑇(𝜙) o ⟨𝑇, 𝜙⟩ (5.1.4)

Si consideri l'insieme D′, detto spazio duale, contenente tutte le

distribuzioni in D. In detto insieme si definisce somma di due distribu-

zioni 𝑇1, 𝑇2 la distribuzione 𝑇 che associa alla generica funzione di prova

la somma dei valori che le associano le due distribuzioni 𝑇1, 𝑇2, cioè:

𝑇 = 𝑇1 + 𝑇2, se, ∀𝜙 ∈ D,  𝑇(𝜙) = 𝑇1(𝜙) + 𝑇2(𝜙) (5.1.5)

ci si rende conto che, comunque si scelgano in D′ 𝑇1 e 𝑇2, la loro somma

è ancora una distribuzione in D′, e che D′ è un gruppo commutativo ri-

spetto a tale operazione, il cui elemento neutro è la distribuzione che as-

socia il valore 0 ad ogni elemento di D.

Inoltre è possibile definire in D′ la legge di composizione esterna

tra D′ e il campo ℂ dei complessi come segue:

�� = 𝜆𝑇, se, ∀𝜙 ∈ D, ��(𝜙) = 𝜆𝑇(𝜙) (5.1.6)

È facile verificare che le (5.1.5) e (5.1.6) soddisfano le (5.1.1) pertanto D′

è uno spazio vettoriale.

Fig. 5.1 - e(

𝑎2

𝑡2−𝑎2)⊓ (

𝑡

2𝑎)

Page 121: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 109

Esempi di distribuzioni. 5.2 - Distribuzioni regolari

Una funzione 𝑓(𝑡) localmente sommabile in ℝ, cioè sommabile

in ogni suo sottoinsieme limitato, individua la distribuzione 𝑇𝑓 :

𝑇𝑓(𝜙) = ∫ 𝑓(𝑡)𝜙(𝑡)𝑑𝑡∞

−∞

(5.2.1)

dove 𝜙(𝑡) rappresenta un generico elemento di D.

Una distribuzione che si può esprimere nella forma (5.2.1) si dice

regolare in caso contrario la distribuzione si dice singolare.

Funzioni che assumono valori diversi solo su un insieme di misu-

ra nulla definiscono la stessa distribuzione.

Gradino unitario

La distribuzione 𝑢 gradino unitario è così definita:

u(ϕ) = ∫ ϕ(t)dt∞

0

(5.2.2)

È una distribuzione regolare associata alla

funzione:

u(𝑡) = {1; 𝑡 ≥ 00; 𝑡 < 0

(5.2.3)

rappresentata in Fig. 5.2.

Delta di Dirac

La distribuzione delta di Dirac, 𝛿, è

definita dalla:

𝛿(𝜙) = 𝜙(0) (5.2.4)

La delta di Dirac associa cioè ad ogni fun-

zione 𝜙(𝑡) in D il valore che essa assume

all'origine.

La delta di Dirac è una distribuzione singolare, tuttavia può essere

utile introdurre una notazione impropria analoga alla (5.2.1):

∫ 𝛿(𝑡)𝜙(𝑡)𝑑𝑡∞

−∞

= 𝜙(0) (5.2.5)

Fig. 5.2 - Gradino unitario

Fig. 5.3 - Delta di Dirac

Page 122: Lezioni di TEORIA DEI SEGNALI.pdf

110 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

dove 𝛿(𝑡) denota il cosiddetto impulso di Dirac, che viene rappresenta-

to mediante una freccia rivolta verso l'alto spiccata nel punto 𝑡 = 0 (ve-

di. Fig. 5.3).

La (5.2.5) si può pensare come limite della successione di distri-

buzioni regolari associata ad impulsi rettangolari aventi supporto ten-

dente a zero ed area costante e pari a uno (vedi Fig. 5.4):

𝑇𝑛(𝜙) = ∫ 𝑛⊓(𝑛𝑡)𝜙(𝑡)𝑑𝑡∞

−∞

= 𝑛∫ 𝜙(𝑡)𝑑𝑡

1

2𝑛

−1

2𝑛

= 𝜙(𝜉) (5.2.6)

essendo 𝜉 un opportuno punto che giace all'interno dell'intervallo di in-

tegrazione. Al tendere di 𝑛 ad infinito, poiché l'intervallo di integrazione

tende all'insieme {0}, 𝜉 tende a zero, di conseguenza la {𝑇𝑛} tende ad as-

sumere il valore della funzione di prova in zero. Pertanto si è indotti a

scrivere:

lim𝑛→∞

𝑛⊓(𝑛𝑡) = 𝛿(𝑡) (5.2.7)

Tuttavia la (5.2.7) non ha senso se si

considera la 𝛿(𝑡) una funzione ordina-

ria, in quanto il supporto della 𝛿(𝑡) sa-

rebbe solo il punto 0. Pertanto l'inte-

grale (5.2.5) dovrebbe essere nullo in-

dipendentemente dalla scelta della 𝜙.

D’altro canto, possiamo anche osser-

vare che la successione 𝑛⊓(𝑛𝑡) ri-

guardata come una successione in ℒ2

non è di Cauchy quindi non è conver-

gente.

Tuttavia la (5.2.7) è utile in

quanto dà ragione della rappresenta-

zione grafica della 𝛿, e mostra che,

comunque, la distribuzione in parola si

può approssimare, bene quanto si vuole, mediante distribuzioni regolari.

Pseudo funzione t-1

La funzione 𝑡−1 non è localmente sommabile su un qualsiasi in-

tervallo contenente l'origine e tanto meno lo è 𝑡−1𝜙(𝑡) se 𝜙(𝑡) non ri-

Fig. 5.4 - Approssimazione della di-stribuzione delta.

Page 123: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 111

sulta infinitesima nell'origine. Ciononostante, ∀𝜙 ∈ D, il valore principa-

le di Cauchy dell'integrale 𝑡−1𝜙(𝑡), definito come segue:

VP∫ 𝑡−1𝜙(𝑡)𝑑𝑡∞

−∞

= lim→0(∫ 𝑡−1𝜙(𝑡)𝑑𝑡

−∞

+∫ 𝑡−1𝜙(𝑡)𝑑𝑡∞

) (5.2.8)

esiste finito, ed è una forma lineare e continua su D. Ciò significa che al-

la funzione 𝑡−1 si può associare la distribuzione Pf(𝑡−1) detta pseudo

funzione 𝑡−1, definita dalla:

⟨Pf(𝑡−1), 𝜙⟩ = VP∫ 𝑡−1𝜙(𝑡)𝑑𝑡∞

−∞

(5.2.9)

Risulta:

VP∫ 𝑡−1𝜙(𝑡)𝑑𝑡∞

−∞

= lim→0∫ 𝑡−1𝜙(𝑡)𝑑𝑡−

−∞

+lim→0∫ 𝑡−1𝜙(𝑡)𝑑𝑡∞

= lim→0∫ 𝑡−1(𝜙(𝑡) − 𝜙(−𝑡))𝑑𝑡 = ∫ 𝑡−1(𝜙(𝑡) − 𝜙(−𝑡))𝑑𝑡

0

(5.2.10)

in quanto la funzione 𝜙(𝑡) − 𝜙(−𝑡) è infinitesima nell'origine.

In definitiva quindi si può scrivere:

⟨𝑃𝑓(𝑡−1), 𝜙⟩ = 𝑉𝑃∫ 𝑡−1𝜙(𝑡)𝑑𝑡∞

−∞

= ∫ 𝑡−1(𝜙(𝑡) − 𝜙(−𝑡))𝑑𝑡∞

0

(5.2.11)

Calcolo delle distribuzioni. 5.3 - Uguaglianza

Due distribuzioni 𝑈 e 𝑉 si dicono uguali quando sono uguali i va

lori da esse assunti in corrispondenza ad ogni elemento di D, cioè:

𝑈 = 𝑉 se, ∀ 𝜙 ∈ D, 𝑈(𝜙) = 𝑉(𝜙) (5.3.1)

Somma

La somma 𝑈 + 𝑉 di due distribuzioni è la distribuzione che asso-

cia, ad ogni 𝜙 ∈ D, la somma dei valori che le distribuzioni 𝑈 e 𝑉 prese

singolarmente associano alla generica funzione di prova 𝜙:

𝑇 = 𝑈 + 𝑉     se,  ∀𝜙 ∈ D, 𝑇(𝜙) = 𝑈(𝜙) + 𝑉(𝜙) (5.3.2)

Traslazione

Per ogni distribuzione regolare, si ha ovviamente:

Page 124: Lezioni di TEORIA DEI SEGNALI.pdf

112 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

⟨𝑓(𝑡 − 𝑡0), 𝜙(𝑡)⟩ = ∫ 𝑓(𝑡 − 𝑡0)𝜙(𝑡)𝑑𝑡∞

−∞

= ∫ 𝑓(𝑡)𝜙(𝑡 + 𝑡0)𝑑𝑡∞

−∞

= ⟨𝑓(𝑡), 𝜙(𝑡 + 𝑡0)⟩

(5.3.3)

Estendendo le conclusioni della precedente anche alle distribu-

zioni singolari si può definire traslata 𝑇𝑡0 di una distribuzione 𝑇 la distri-

buzione:

⟨𝑇𝑡0 , 𝜙(𝑡)⟩ = ⟨𝑇, 𝜙(𝑡 + 𝑡0)⟩ (5.3.4)

cioè, la traslata 𝑇𝑡0 della distribuzione 𝑇 è la distribuzione che associa alla

generica funzione di prova il valore che la distribuzione originaria asso-

cerebbe alla medesima funzione di prova anticipata di 𝑡0.

Ad esempio applicando la (5.3.4) alla 𝛿 si ottiene:

⟨𝛿𝑡0 , 𝜙(𝑡)⟩ = ⟨𝛿, 𝜙(𝑡 + 𝑡0)⟩ = 𝜙(𝑡0) (5.3.5)

che, adottando la formulazione (5.2.5), equivale a scrivere:

∫ 𝛿(𝑡 − 𝑡0)𝜙(𝑡)𝑑𝑡∞

−∞

= 𝜙(𝑡0) (5.3.6)

La rappresentazione della 𝛿(𝑡 − 𝑡0) è riportata in Fig. 5.3.

Derivata di una distribuzione

Si consideri una funzione 𝑓 derivabile in ℝ con derivata continua;

alla sua derivata 𝑓′ si può associare la seguente distribuzione regolare:

∫ 𝑓′(𝑡)∞

−∞

𝜙(𝑡)𝑑𝑡 (5.3.7)

Applicando alla precedente la regola d’integrazione per parti si ottiene:

⟨𝑓′, 𝜙⟩ = ∫ 𝑓′(𝑡)𝜙(𝑡)𝑑𝑡∞

−∞

= −∫ 𝑓(𝑡)𝜙′(𝑡)𝑑𝑡∞

−∞

+ [𝑓(𝑡)𝜙(𝑡)]−∞∞ = ⟨𝑓,−𝜙′⟩

(5.3.8)

dove si è tenuto conto del fatto che la 𝜙, appartenendo allo spazio del le

funzioni di prova, è a supporto limitato.

La (5.3.8) si generalizza sia al caso delle distribuzioni regolari as-

sociate a funzioni localmente sommabili, sia al caso delle distribuzioni

singolari. La (5.3.8) definisce quindi la derivata di una distribuzione.

Page 125: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 113

Applicando ricorsivamente (5.3.8) si deduce l'espressione della

derivata generalizzata di ordine 𝑘 di una distribuzione:

⟨𝑇𝑘 , 𝜙⟩ = ⟨𝑇, (−1)𝑘𝜙𝑘⟩ (5.3.9)

Ricordando che lo spazio D è costituito da funzioni infinitamente

derivabili, dalla precedente si deduce che la distribuzione è un ente ma-

tematico infinitamente derivabile.

Ad esempio:

- La derivata della distribuzione associata al gradino unitario vale:

⟨u′, 𝜙⟩ = ⟨𝑢, −𝜙′⟩ = −∫ 𝜙′(𝑡)𝑑𝑡∞

0

= −[𝜙(𝑡)]0∞ = 𝜙(0) (5.3.10)

pertanto:

⟨u′, 𝜙⟩ = ⟨𝛿, 𝜙⟩ (5.3.11)

La precedente, adottando la notazione utilizzata nella (5.2.5), suggerisce

di scrivere:

𝑑u(𝑡)

𝑑𝑡= 𝛿(𝑡) (5.3.12)

- La derivata della delta di Dirac vale:

⟨𝛿′, 𝜙⟩ = ⟨𝛿, −𝜙′⟩ = −𝜙′(0) (5.3.13)

Essa definisce quindi una distribuzione 𝛿′, detta doppietta unitaria, che

viene talvolta espressa, impropriamente, nella forma:

∫ 𝛿′(𝑡)∞

−∞

𝜙(𝑡)𝑑𝑡 = −𝜙′(0) (5.3.14)

Per la derivata 𝑘-esima della delta di Dirac, si deduce facilmente:

⟨𝛿𝑘 , 𝜙⟩ = ⟨𝛿, (−1)𝑘𝜙𝑘⟩ = (−1)𝑘𝜙𝑘(0) (5.3.15)

che si esprime anche mediante la scrittura:

∫ 𝛿𝑘(𝑡)∞

−∞

𝜙(𝑡)𝑑𝑡 = (−1)𝑘𝜙𝑘(0) (5.3.16)

Sia 𝑔(𝑡) una funzione continua e derivabile ovunque fatta eccezione per

il punto 𝑡0 in corrispondenza del quale esistono finite le seguenti quanti-

tà: 𝑔(𝑡0−), 𝑔(𝑡0

+), 𝑔′(𝑡0−) e 𝑔′(𝑡0

+).

Page 126: Lezioni di TEORIA DEI SEGNALI.pdf

114 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Sia 𝑔1(𝑡) una funzione ottenuta da 𝑔(𝑡) eliminando il salto che si pre-

senta nel punto di ascissa 𝑡0 (vedi Fig. 5.5). La 𝑔(𝑡) si può quindi espri-

mere come segue:

𝑔(𝑡) = 𝑔1(𝑡) + 𝜎0𝑢(𝑡 − 𝑡0) (5.3.17)

dove:

𝜎0 = 𝑔(𝑡0+) − 𝑔(𝑡0

−) (5.3.18)

Si consideri adesso la distribuzione regolare associata alla 𝑔(𝑡):

⟨𝑔, 𝜙⟩ = ⟨𝑔1, 𝜙⟩ + 𝜎0⟨u𝑡0 , 𝜙⟩ = ⟨𝑔1, 𝜙⟩ + 𝜎0⟨u, 𝜙(𝑡 + 𝑡0)⟩ (5.3.19)

In virtù della linearità, la sua derivata vale ovviamente:

⟨𝑔′, 𝜙⟩ = ⟨𝑔1′ , 𝜙⟩ + 𝜎0⟨𝛿𝑡0 , 𝜙(𝑡)⟩ (5.3.20)

Si può quindi scrivere

𝑔′(𝑡) = 𝑔1′ (𝑡) + 𝜎0𝛿(𝑡 − 𝑡0) (5.3.21)

La funzione 𝑔′1(𝑡) non è de-

finita per 𝑡 = 𝑡0, e potrebbe ivi pre-

sentare una discontinuità non elimi-

nabile. È opportuno osservare che

laddove esiste 𝑔′(𝑡) risulta ovvia-

mente 𝑔1′ (𝑡) = 𝑔′(𝑡).

Osserviamo inoltre che 𝑔′(𝑡)

individua una distribuzione regolare

in quanto {𝑡0} ha misura nulla.

La (5.3.20) si può generalizzare al caso di funzioni che presentino

un insieme al più numerabile di punti del tipo sopra considerato scri-

vendo:

⟨𝑔′, 𝜙⟩ = ⟨𝑔1′ , 𝜙⟩ +∑𝜎𝑖⟨𝛿𝑡𝑖 , 𝜙(𝑡)⟩

𝑖∈I

(5.3.22)

che equivale a:

𝑔′(𝑡) = 𝑔1′ (𝑡) +∑𝜎𝑖𝛿(𝑡 − 𝑡𝑖)

𝑖∈I

(5.3.23)

avendo denotato con:

𝜎𝑖 = 𝑔(𝑡𝑖+) − 𝑔(𝑡𝑖

−);       𝑖 ∈ I (5.3.24)

Fig. 5.5 - Segnale continuo a tratti

Page 127: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 115

i salti che subisce la funzione 𝑔(𝑡) nei punti di discontinuità 𝑡𝑖.

Prodotto di una funzione per una distribuzione

Sia 𝛼(𝑡) una funzione appartenente allo spazio E delle funzioni

continue e derivabili infinite volte in ℝ. Se 𝑓(𝑡) è una distribuzione re-

golare si ha:

⟨𝛼𝑓, 𝜙⟩ = ∫ [𝛼(𝑡)𝑓(𝑡)]𝜙(𝑡)𝑑𝑡

−∞

  = ∫ 𝑓(𝑡)[𝛼(𝑡)𝜙(𝑡)]𝑑𝑡∞

−∞

= ⟨𝑓, 𝛼𝜙⟩

(5.3.25)

la quale, generalizzata ad una distribuzione 𝑇 singolare, diventa:

< 𝛼𝑇, 𝜙 >=< 𝑇, 𝛼𝜙 > (5.3.26)

Ad esempio per la distribuzione 𝛿 si ha:

⟨𝛼𝛿𝑡0, 𝜙⟩ = ⟨𝛿𝑡0 , 𝛼𝜙⟩ = 𝛼(𝑡0)𝜙(𝑡0) = 𝛼(𝑡0)⟨𝛿𝑡0, 𝜙⟩ (5.3.27)

che si suole scrivere anche nella forma impropria:

𝛼(𝑡)𝛿(𝑡 − 𝑡0) = 𝛼(𝑡0)𝛿(𝑡 − 𝑡0) (5.3.28)

Nel caso della pseudo funzione 𝑡−1, si osservi che se la 𝛼(𝑡) è in-

finitesima nell'origine si può scrivere:

⟨𝛼(𝑡)𝑃𝑓(𝑡−1), 𝜙⟩ = 𝑉𝑃∫

𝛼(𝑡)

𝑡𝜙(𝑡)𝑑𝑡

−∞

  = ∫𝛼(𝑡)

𝑡𝜙(𝑡)𝑑𝑡

−∞

= ⟨𝛼(𝑡)𝑡−1, 𝜙⟩

(5.3.29)

cioè:

𝛼(𝑡)𝑃𝑓(𝑡−1) =𝛼(𝑡)

𝑡 (5.3.30)

Distribuzioni a supporto limitato

Per supporto di una distribuzione 𝑇 si intende il complementare

dell'unione dei sottoinsiemi di ℝ tali che si abbia ⟨𝑇, 𝜙⟩ = 0 per ogni

funzione di prova 𝜙 il cui supporto è in essi contenuto.

Ad esempio:

- il supporto della delta di Dirac è l'insieme che contiene esclusi-

vamente l'origine, giacche la δ(ϕ) vale 0, per ogni ϕ il cui sup-

porto non contiene l'origine;

- il supporto del gradino unitario è il semiasse reale positivo poiché

è u(ϕ) = 0 per ogni ϕ il cui supporto sia contenuto in (−∞, 0).

Page 128: Lezioni di TEORIA DEI SEGNALI.pdf

116 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ci si rende conto facilmente che per ogni funzione 𝛼(𝑡) ∈ E e

qualunque sia 𝜙(𝑡) ∈ D la funzione 𝛼(𝑡)𝜙(𝑡) ∈ D

Si consideri una distribuzione 𝑇 a supporto limitato e si scelga la

funzione di prova 𝜙 nel sottoinsieme di D costituito da tutte le funzioni

che valgono 1 in un qualsiasi insieme che contiene il supporto di 𝑇. In

corrispondenza a dette funzioni, e qualunque sia 𝛼(𝑡) ∈ E, si può scrive-

re:

⟨𝑇, 𝛼𝜙⟩ = ⟨𝑇, 𝛼⟩ (5.3.31)

Ciò significa che le distribuzioni a supporto limitato possono es-

sere definite anche sullo spazio E. In altri termini una distribuzione a

supporto limitato in D′ è anche una distribuzione su E. Si può dimostra-

re che vale il viceversa, cioè che ogni distribuzione appartenente allo

spazio E′, duale di E, è una distribuzione a supporto limitato in D, e

quindi che E′ ⊂ D′.

Convoluzione tra distribuzioni. 5.4 -

Siano 𝑓(𝑡) e 𝑔(𝑡) due funzioni localmente sommabili, la loro

convoluzione 𝑓 ∗ 𝑔 è, se esiste per ogni 𝑡 la funzione ℎ(𝑡) definita dalla:

ℎ(𝑡) = ∫ 𝑓(𝜏)𝑔(𝑡 − 𝜏)𝑑𝜏∞

−∞

= ∫ 𝑓(𝑡 − 𝜏)𝑔(𝜏)𝑑𝜏∞

−∞

(5.4.1)

Se ℎ(𝑡) è localmente sommabile essa individua una distribuzione regola-

re. Si ha cioè per ogni 𝜙 ∈ D:

⟨ℎ, 𝜙⟩ = ∫ ℎ(𝑡)𝜙(𝑡)𝑑𝑡∞

−∞

= ∫ 𝜙(𝑡) (∫ 𝑓(𝜏)𝑔(𝑡 − 𝜏)𝑑𝜏∞

−∞

)𝑑𝑡∞

−∞

= ∫ ∫ 𝜙(𝑡)𝑓(𝜏)𝑔(𝑡 − 𝜏)𝑑𝜏∞

−∞

𝑑𝑡∞

−∞

(5.4.2)

che, introducendo la trasformazione di variabili

𝑡 − 𝜏 = 𝜗 (5.4.3)

diviene:

⟨ℎ, 𝜙⟩ = ∫ 𝑔(𝜗) (∫ 𝑓(𝜏)𝜙(𝜏 + 𝜗)𝑑𝜏∞

−∞

)𝑑𝜗∞

−∞

(5.4.4)

Page 129: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 117

Analogamente, procedendo sulla base del secondo integrale che

compare nella (5.4.1), si ha:

⟨ℎ, 𝜙⟩ = ∫ 𝑓(𝜏) (∫ 𝑔(𝜗)𝜙(𝜏 + 𝜗)𝑑𝜗∞

−∞

)∞

−∞

𝑑𝜏 (5.4.5)

Si è quindi portati a riscrivere le (5.4.4) e (5.4.5) nella forma:

⟨ℎ, 𝜙⟩ = ⟨𝑔(𝜗), ⟨𝑓(𝜏), 𝜙(𝜏 + 𝜗)⟩⟩ = ⟨𝑓(𝜏), ⟨𝑔(𝜗), 𝜙(𝜏 + 𝜗)⟩⟩ (5.4.6)

Si osservi tuttavia che gli integrali interni delle (5.4.4) e (5.4.5), in quanto

distribuzioni regolari, definiscono due funzioni nelle variabili 𝜗 e 𝜏, che,

pur essendo infinitamente derivabili, in genere non presentano supporto

limitato. Conseguentemente, l'interpretazione degli integrali esterni delle

(5.4.4) e (5.4.5) come distribuzioni non è sempre legittima

Le (5.4.6) consentono tuttavia di generalizzare il concetto di con-

voluzione alle distribuzioni.

Siano 𝑈 e 𝑉 due distribuzioni; la loro convoluzione è, se esiste,

una distribuzione 𝑇 = 𝑈 ∗ 𝑉, definita dalla:

⟨𝑇, 𝜙⟩ = ⟨𝑈 ∗ 𝑉, 𝜙⟩ = ⟨𝑈𝜏 , ⟨𝑉𝜗, 𝜙(𝜏 + 𝜗)⟩⟩ 

= ⟨𝑉𝜗, ⟨𝑈𝜏 , 𝜙(𝜏 + 𝜗)⟩⟩ (5.4.7)

dove i pedici indicano la variabile da cui dipende la funzione di prova a

cui la distribuzione è applicata.

A proposito dell'esistenza della convoluzione tra distribuzioni va-

le la seguente condizione sufficiente: detti rispettivamente 𝛺𝑈 e 𝛺𝑉 i

supporti delle distribuzioni 𝑈 e 𝑉, si può dimostrare che la convoluzione

tra distribuzioni ha senso tutte le volte che l'intersezione fra il prodotto

cartesiano 𝛺𝑈 × 𝛺𝑉 ed il supporto della funzione 𝜙(𝜏 + 𝜗) pensata come

funzione delle variabili 𝜏, 𝜗 è limitato in ℝ2.

Si osservi che la 𝜙(𝑡) ∈ D, quindi è a supporto limitato; pertanto,

certamente, esiste un intervallo (𝑎, 𝑏) limitato che contiene il supporto

di 𝜙. Altrettanto non può dirsi del supporto della 𝜙(𝜏 + 𝜗) in ℝ2. In ef-

fetti il supporto della 𝜙(𝜏 + 𝜗) è contenuto nella striscia limitata dalle

rette:

𝜏 + 𝜗 = 𝑎𝜏 + 𝜗 = 𝑏

(5.4.8)

Page 130: Lezioni di TEORIA DEI SEGNALI.pdf

118 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

rappresentata in Fig. 5.6. Con riferimento alla stessa figura, si deduce

che, se la 𝜙(𝑡) ∈ D, la convoluzione 𝑇 tra due distribuzioni ha certamen-

te senso quando:

a) almeno una delle due distribuzioni 𝑈 o 𝑉 ha supporto limitato (vedi

Fig. 5.6a e Fig. 5.6b);

b) entrambe le distribuzioni 𝑈 e 𝑉 hanno supporti limitati inferiormen-

te (vedi Fig. 5.6c);

c) entrambe le distribuzioni 𝑈 e 𝑉 hanno supporti limitati superior-

mente (vedi Fig. 5.6d).

Ad esempio, essendo la delta di Dirac una distribuzione a suppor-

to limitato, si ha, qualunque sia la distribuzione 𝑇:

⟨𝑇 ∗ 𝛿, 𝜙⟩ = ⟨𝑇𝜏, ⟨𝛿𝜗, 𝜙(𝜏 + 𝜗)⟩⟩ = ⟨𝑇𝜏, 𝜙(𝜏)⟩ = ⟨𝑇, 𝜙⟩ (5.4.9)

cioè:

𝑇 ∗ 𝛿 = 𝑇 (5.4.10)

La delta di Dirac quindi è elemento neutro nell'operazione di

convoluzione.

In maniera analoga si verifica che:

𝑇 ∗ 𝛿′ = 𝑇′ (5.4.11)

e più in generale:

𝑇 ∗ 𝛿(𝑘) = 𝑇(𝑘) (5.4.12)

Infatti è:

⟨𝑇 ∗ 𝛿(𝑘), 𝜙⟩ = ⟨𝑇𝜏 , ⟨𝛿𝜗

(𝑘), 𝜙(𝜏 + 𝜗)⟩⟩

= ⟨𝑇𝜏 , −𝜙(𝑘)(𝜏)⟩ = ⟨𝑇(𝑘), 𝜙⟩

(5.4.13)

Ponendo nella (5.4.11) 𝑇 = 𝑈 ∗ 𝑉 si ottiene:

(𝑈 ∗ 𝑉)′ = (𝑈 ∗ 𝑉) ∗ 𝛿′ = 𝑈 ∗ 𝑉 ∗ 𝛿′ = 𝑈 ∗ (𝑉 ∗ 𝛿′)

= 𝑈 ∗ 𝑉′ (5.4.14)

o anche, per la commutatività della convoluzione:

Page 131: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 119

(𝑈 ∗ 𝑉)′ = (𝑈 ∗ 𝑉) ∗ 𝛿′ = 𝑈 ∗ 𝛿′ ∗ 𝑉 = (𝑈 ∗ 𝛿′) ∗ 𝑉 = 𝑈′ ∗ 𝑉 (5.4.15)

dalle quali si deduce che per derivare un prodotto di convoluzione basta

derivare uno qualsiasi dei fattori.

Esempio 5.1

La proprietà di derivazione (5.4.14) può essere

utilmente impiegata per il calcolo della convolu-

zione dei segnali. Così ad esempio per valutare la

convoluzione fra l'impulso rettangolare ⊓ (𝑡

𝑇) e

l'impulso triangolare ∧ (𝑡

𝑇) (vedi Fig. E 5.1):

𝜙(𝑡) =⊓ (𝑡

𝑇) ∗∧ (

𝑡

𝑇)

Applicando la (5.4.15) si ha:

𝜙′(𝑡) =𝑑

𝑑𝑡(⊓ (

𝑡

𝑇)) ∗∧ (

𝑡

𝑇)

da cui essendo:

Fig. 5.6

Fig.E 5.1

Page 132: Lezioni di TEORIA DEI SEGNALI.pdf

120 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑑

𝑑𝑡(⊓ (

𝑡

𝑇)) = 𝛿 (𝑡 +

𝑇

2) − 𝛿 (𝑡 −

𝑇

2)

risulta:

𝜙′(𝑡) = (𝛿 (𝑡 +𝑇

2) − 𝛿 (𝑡 −

𝑇

2)) ∗∧ (

𝑡

𝑇)

che equivale a scrivere:

𝜙′(𝑡) = ∧ (𝑡

𝑇+1

2) −∧ (

𝑡

𝑇−1

2)

L'andamento di 𝜙′(𝑡) in funzione di 𝑡 è ri-

portato in Fig.E 5.2.

Si ha allora integrando:

𝜙(𝑡) = 𝜙(−𝑇) + ∫ 𝜙′(𝑥)𝑑𝑥𝑡

−𝑇=

{

𝑇 (

𝑡

𝑇+ 1)

2; −𝑇 ≤ 𝑡 ≤ −

𝑇

2

𝑇 (−(𝑡

𝑇)2+1

2) ; −

𝑇

2≤ 𝑡 ≤

𝑇

2

𝑇 (𝑡

𝑇− 1)

2;

𝑇

2≤ 𝑡 ≤ 𝑇

0; |𝑡| ≥ 𝑇

Essendo 𝜙(−𝑇) = 0. 𝜙(𝑡) è rappresentato

in Fig.E 5.3.

Formula di Poisson. 5.5 -

Si consideri adesso la distribuzione generata dalla funzione:

𝑓𝑁(𝑡) =1

𝑇∑ 𝑒𝑗2𝜋𝑛

𝑡

𝑇

𝑁

𝑛=−𝑁

(5.5.1)

Detta distribuzione associa alla generica funzione di prova il valore:

⟨𝑓𝑁, 𝜙⟩ = ∫ 𝜙(𝑡)1

𝑇∑ 𝑒𝑗2𝜋𝑛

𝑡

𝑇

𝑁

𝑛=−𝑁

−∞

𝑑𝑡

=1

𝑇∑ ∫ 𝑒𝑗2𝜋𝑛

𝑡

𝑇

−∞

𝜙(𝑡)𝑑𝑡

𝑁

𝑛=−𝑁

= ∑ ∑1

𝑇∫ 𝑒𝑗2𝜋𝑛

𝑡

𝑇𝜙(t)𝑑𝑡(k+1)𝑇

kT

𝑘=−∞

𝑁

𝑛=−𝑁

(5.5.2)

Fig.E 5.3

Fig.E 5.2

Page 133: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 121

= ∑ ∑1

𝑇∫ 𝑒𝑗2𝜋𝑛

𝑡′+𝑘𝑇

𝑇 𝜙(𝑡′ + 𝑘𝑇)𝑑𝑡′𝑇

0

𝑘=−∞

𝑁

𝑛=−𝑁

= ∑ ∑1

𝑇∫ 𝑒𝑗2𝜋𝑛

𝑡′

𝑇𝜙(𝑡′ + 𝑘𝑇)𝑑𝑡′𝑇

0

𝑘=−∞

𝑁

𝑛=−𝑁

= ∑1

𝑇∫ 𝑒𝑗2𝜋𝑛

𝑡′

𝑇 ∑ 𝜙(𝑡′ − 𝑘𝑇)𝑑𝑡′∞

𝑘=−∞

𝑇

0

𝑁

𝑛=−𝑁

dove si è utilizzata la trasformazione di variabili 𝑡′ = 𝑡 + 𝑘𝑇. Si noti che,

la sommatoria che compare all'interno dell'integrale dell'ultimo membro

della precedente, costituisce la cosiddetta ripetizione periodica ��𝑇(𝑡) di

𝜙(𝑡).

Si osservi che, in virtù della limitatezza del supporto della funzio-

ne di prova, per ogni istante, soltanto un numero finito di repliche tra-

slate di 𝜙(𝑡) sarà diverso da zero; pertanto la ��𝑇, oltre ad essere periodi-

ca è limitata in ℝ. Inoltre l'appartenenza della 𝜙 allo spazio D assicura la

infinita derivabilità di ��𝑇 in ℝ. La ��𝑇 può essere sviluppata in serie di

Fourier; serie che convergerà al valore assunto dalla ��𝑇 per ogni 𝑡. Si ha

quindi:

��𝑇(𝑡) = ∑ 𝜙(𝑡 − 𝑘𝑇)

𝑘=−∞

= ∑ ��𝑇𝑛𝑒𝑗2𝜋

𝑛𝑡

𝑇

𝑛=−∞

(5.5.3)

che sostituita nella (5.5.2) fornisce:

⟨𝑓𝑁 , 𝜙⟩ = ∑1

𝑇∫ ��𝑇(𝑡)𝑒

𝑗2𝜋𝑛𝑡

𝑇𝑑𝑡𝑇

0

𝑁

𝑛=−𝑁

= ∑ ��𝑇𝑛

𝑁

𝑛=−𝑁

(5.5.4)

Se nella (5.5.4) si fa tendere 𝑁 ad infinito si ottiene:

lim𝑁→∞

⟨𝑓𝑁, 𝜙⟩ = lim𝑁→∞

∑ ��𝑇𝑛

𝑁

𝑛=−𝑁

= ��𝑇(0) = ∑ 𝜙(−𝑘𝑇)

𝑘=−∞

= ∑ 𝜙(𝑘𝑇)

𝑘=−∞

< ∞

(5.5.5)

che può quindi essere interpretato come una distribuzione che si

indica con:

Page 134: Lezioni di TEORIA DEI SEGNALI.pdf

122 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

⟨1

𝑇∑ 𝑒𝑗2𝜋𝑛

𝑡

𝑇

𝑛=−∞

, 𝜙(𝑡)⟩ = lim𝑁→∞

1

𝑇∑ ⟨𝑒𝑗2𝜋𝑛

𝑡

𝑇, 𝜙(𝑡)⟩

𝑁

𝑛=−𝑁

(5.5.6)

D'altra parte poiché per la (5.3.5) risulta anche:

⟨ ∑ 𝛿(𝑡 − 𝑘𝑇)

𝑘=−∞

, 𝜙(𝑡)⟩ = ∑ 𝜙(𝑘𝑇)

𝑘=−∞

(5.5.7)

si deduce immediatamente la seguente fondamentale uguaglianza:

1

𝑇∑ 𝑒𝑗2𝜋𝑛

𝑡

𝑇

𝑛=−∞

= ∑ 𝛿(𝑡 − 𝑛𝑇)

𝑛=−∞

(5.5.8)

che va sotto il nome di formula di Poisson.

Trasformata di Fourier di una distribuzione. 5.6 -

Sia 𝑥(𝑡) localmente sommabile e dotata di trasformata di Fourier:

𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

(5.6.1)

Alla 𝑋(𝑓) si può associare la distribuzione:

⟨𝑋(𝑓), 𝜙𝑓⟩ = ∫ 𝑋(𝑓)𝜙(𝑓)𝑑𝑓∞

−∞

(5.6.2)

che si può scrivere come:

⟨𝐹[𝑥(𝑡)], 𝜙𝑓⟩ = ∫ 𝜙(𝑓) (∫ 𝑥(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

)𝑑𝑓∞

−∞

= ∫ 𝑥(𝑡) (∫ 𝜙(𝑓)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑓∞

−∞

)𝑑𝑡∞

−∞

= ∫ 𝑥(𝑡)𝛷(𝑡)𝑑𝑡∞

−∞

(5.6.3)

avendo denotato con 𝛷(𝑡) la trasformata della funzione 𝜙(𝑓). È da os-

servare che l'ultimo termine della precedente non costituisce una distri-

buzione in D, poiché, come sarà dimostrato nel Cap. VII, la trasformata

di Fourier di una funzione a supporto limitato non può avere supporto

limitato, quindi, se 𝜙(𝑓) ∈ D, la sua trasformata 𝛷(𝑡) ∉ D.

Per estendere la trasformata di Fourier alle distribuzioni è quindi

necessario definire uno spazio di funzioni di prova più ampio, che sia

cioè tale da contenere la trasformata di Fourier di ogni suo elemento.

A tal proposito vale il seguente

Page 135: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 123

Teorema 5.1

Sia 𝜙(𝑡) una funzione dotata di derivate di qualsiasi ordine continue, tali che co-

munque presi 𝑘, 𝑝 ∈ ℕ risulti:

lim|𝑡|→∞

|𝑡𝑘𝜙(𝑝)(𝑡)| = 0 (5.6.4)

Allora 𝜙(𝑡) è trasformabile secondo Fourier, e la sua trasformata 𝛷(𝑓) è continua,

dotata di derivate di qualsiasi ordine continue e tali che:

lim|𝑓|→∞

|𝑓𝑘𝛷(𝑝)(𝑓)| = 0 (5.6.5)

************

Le funzioni che soddisfano la (5.6.5) prendono il nome di fun-

zioni temperate e lo spazio da esse definito viene denotato con S. Tale

spazio non è banale giacché la funzione 𝑒−𝑡2 la cui trasformata di Fou-

rier vale √𝜋𝑒−𝜋2𝑓2 vi appartiene. Si noti inoltre che lo spazio delle fun-

zioni di prova D, precedentemente definito, è contenuto nello spazio

delle funzioni temperate.

Le distribuzioni su S si chiamano distribuzioni temperate, per es-

se valgono tutte le proprietà già dimostrate per le distribuzioni in 𝐷.

L’unica sostanziale differenza risiede nel fatto che ad una funzione che

sia solo localmente sommabile non si può più associare una distribuzio-

ne regolare.

Ciò posto, se si assume come spazio delle funzioni di prova lo

spazio S, l'ultimo termine della (5.6.3) può interpretarsi come una distri-

buzione regolare su tale spazio. Estendendo la (5.6.3) anche al caso delle

distribuzioni singolari su S si ottiene la seguente definizione per la tra-

sformata 𝔉[𝑇] di una distribuzione temperata:

⟨𝔉[𝑇], 𝜙𝑓⟩ = ⟨𝑇, 𝛷𝑡⟩; ∀𝜙, 𝛷 ∈ S (5.6.6)

La trasformata di Fourier 𝔉[𝑇] di una distribuzione 𝑇 è dunque

quella distribuzione che opera sulla funzione 𝜙𝑓 come la distribuzione 𝑇

opererebbe sulla trasformata 𝛷𝑡 della 𝜙𝑓.

In maniera analoga si definisce antitrasformata di Fourier di una

distribuzione 𝑇 la distribuzione, denotata con 𝔉−1[𝑇], tale che si abbia:

⟨𝔉−1[𝑇], 𝛷𝑡⟩ = ⟨𝑇, 𝜙𝑓⟩; ∀𝛷, 𝜙 ∈ S (5.6.7)

Page 136: Lezioni di TEORIA DEI SEGNALI.pdf

124 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Trasformata di Fourier di distribuzioni a supporto 5.7 - limitato.

Se 𝑥(𝑡) è una funzione sommabile a supporto limitato, la (5.6.3)

si può porre nella forma:

⟨𝔉[𝑥], 𝜙𝑓⟩ = ∫ (∫ 𝑥(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

)𝜙(𝑓)𝑑𝑓∞

−∞

(5.7.1)

L'integrale interno, poiché 𝑥(𝑡) è a supporto limitato e poiché 𝑒−𝑗2𝜋𝑓𝑡 per

ogni 𝑓 è un elemento dello spazio E, definisce una distribuzione regolare

in E ′ dipendente dal parametro 𝑓. Pertanto la (5.7.1) si può riscrivere

come segue:

⟨𝔉[𝑥], 𝜙𝑓⟩ = ∫ (∫ 𝑥(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

)𝜙(𝑓)𝑑𝑓∞

−∞

(5.7.2)

da cui:

𝔉[𝑥] = ⟨𝑥(𝑡), 𝑒−𝑗2𝜋𝑓𝑡⟩ (5.7.3)

La precedente può essere generalizzata anche alle distribuzioni 𝑇

singolari a supporto limitato, scrivendo:

𝔉[𝑇] = ⟨𝑇, 𝑒−𝑗2𝜋𝑓𝑡⟩; ∀𝑇 ∈ E ' (5.7.4)

Analogamente si ha:

𝔉−1[𝑇] = ⟨𝑇, 𝑒𝑗2𝜋𝑓𝑡⟩; ∀𝑇 ∈ E ' (5.7.5)

Le (5.7.4) e (5.7.5) definiscono funzioni di variabile 𝑓 e 𝑡 rispetti-

vamente.

Il limite del rapporto incrementale della (5.7.4) vale:

lim𝛥𝑓→0

⟨𝑇, 𝑒−𝑗2𝜋(𝑓+𝛥𝑓)𝑡⟩ − ⟨𝑇, 𝑒−𝑗2𝜋𝑓𝑡⟩

𝛥𝑓

            = ⟨𝑇, lim𝛥𝑓→0

𝑒−𝑗2𝜋(𝑓+𝛥𝑓)𝑡 − 𝑒−𝑗2𝜋𝑓𝑡

𝛥𝑓⟩ = ⟨𝑇, −𝑗2𝜋𝑡 𝑒−𝑗2𝜋𝑓𝑡⟩

(5.7.6)

Esso esiste finito ∀𝑓 dal momento che −𝑗2𝜋𝑡 ⋅ 𝑒−𝑗2𝜋𝑓𝑡 ∈ E.

La (5.7.6) comporta che la trasformata di Fourier di una distribu-

zione a supporto limitato essendo derivabile è continua. È inoltre im-

mediato constatare che è anche derivabile infinite volte.

Considerazioni analoghe valgono per l'antitrasformata di Fourier

delle distribuzioni a supporto limitato.

Page 137: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 125

Trasformate di Fourier di distribuzioni notevoli. 5.8 - Trasformata di una costante

𝑠(𝑡) = 1 non ammette trasformata di Fourier. Tuttavia nell'ambi-

to delle distribuzioni si ha, ricordando la (5.6.7):

⟨𝔉[1], 𝜙𝑓⟩ = ⟨1, 𝛷𝑡⟩ = ∫ 𝛷(𝑡)𝑑𝑡∞

−∞

= 𝜙(0) = ⟨𝛿, 𝜙𝑓⟩ (5.8.1)

che equivale a scrivere:

𝔉[1] = 𝛿(𝑓) (5.8.2)

Trasformata della delta di Dirac

Essendo la delta di Dirac a supporto limitato la sua trasformata di

Fourier vale:

𝔉[𝛿] = ⟨𝛿, 𝑒−𝑗2𝜋𝑓𝑡⟩ = 1 (5.8.3)

Trasformata della delta di Dirac traslata

La trasformata di Fourier della traslata della distribuzione delta di

Dirac è:

𝔉[𝛿(𝑡 − 𝑡0)] = ⟨𝛿(𝑡 − 𝑡0), 𝑒−𝑗2𝜋𝑓𝑡⟩ = 𝑒−𝑗2𝜋𝑓𝑡0 (5.8.4)

Applicando quest'ultimo risultato alla (5.5.8) si ottiene:

𝔉 [ ∑ 𝛿(𝑡 − 𝑛𝑇)

𝑛=−∞

] = ∑ 𝑒−𝑗2𝜋𝑛𝑓𝑇∞

𝑛=−∞

=1

𝑇∑ 𝛿 (𝑓 −

𝑛

𝑇)

𝑛=−∞

(5.8.5)

Antitrasformata della delta di Dirac traslata

L'antitrasformata della distribuzione 𝛿(𝑓 − 𝑓0) vale:

𝔉−1[𝛿(𝑓 − 𝑓0)] = ⟨𝛿(𝑓 − 𝑓0), 𝑒𝑗2𝜋𝑓𝑡⟩ = 𝑒𝑗2𝜋𝑓0𝑡 (5.8.6)

Trasformate delle funzioni seno e coseno

In base alla (5.8.6) utilizzando le formule di Eulero, si ottiene:

𝔉[cos(2𝜋𝑓0𝑡)] =1

2[𝛿(𝑓 − 𝑓0) + 𝛿(𝑓 + 𝑓0)] (5.8.7)

𝔉[sin(2𝜋𝑓0𝑡)] =1

2𝑗[𝛿(𝑓 − 𝑓0) − 𝛿(𝑓 + 𝑓0)] (5.8.8)

Trasformata di un segnale periodico

La trasformata di un segnale periodico di periodo 𝑇0

𝑠(𝑡) = ∑ 𝑆𝑛𝑒𝑗2𝜋𝑛

𝑡

𝑇0

𝑛=−∞

(5.8.9)

Page 138: Lezioni di TEORIA DEI SEGNALI.pdf

126 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

vale:

𝔉[𝑠(𝑡)] = ∑ 𝑆𝑛𝛿 (𝑓 −𝑛

𝑇0)

𝑛=−∞

(5.8.10)

Trasformata della funzione segno

Si consideri la funzione "segno", vedi Fig. 5.7,

definita dalla:

sgm(𝑡) = { 1; 𝑡 ≥ 0−1; 𝑡 < 0

(5.8.11)

Applicando la (5.6.6) si può scrivere:

⟨𝔉[sgm(𝑡)], 𝜑𝑓⟩ = ⟨sgm(𝑡), 𝛷𝑡⟩ = ∫ sgm(𝑡)𝛷(𝑡)𝑑𝑡∞

−∞

  

= ∫ sgm(𝑡) (∫ 𝜑(𝑓)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑓∞

−∞

)𝑑𝑡∞

−∞

= ∫ (∫ 𝜑(𝑓)(𝑒−𝑗2𝜋𝑓𝑡 − 𝑒𝑗2𝜋𝑓𝑡)𝑑𝑓∞

−∞

)𝑑𝑡∞

0

= −2𝑗∫ (∫ 𝜑(𝑓) sin(2𝜋𝑓𝑡) 𝑑𝑓∞

−∞

)𝑑𝑡∞

0

(5.8.12)

Invertendo l'ordine di integrazione ed esplicitando l'integrale improprio

si ottiene ancora:

⟨𝔉[sgm(𝑡)], 𝜑𝑓⟩ = −2𝑗 lim𝑇→∞

∫ 𝜑(𝑓) (∫ sin(2𝜋𝑓𝑡) 𝑑𝑡𝑇

0

)𝑑𝑓∞

−∞

= lim𝑇→∞

∫ 𝜑(𝑓)1 − cos(2𝜋𝑓𝑇)

𝑗𝜋𝑓𝑑𝑓

−∞

= lim𝑇→∞

∫ (𝜑(𝑓) − 𝜑(−𝑓))1 − cos(2𝜋𝑓𝑇)

𝑗𝜋𝑓𝑑𝑓

0

= ∫𝜑(𝑓) − 𝜑(−𝑓)

𝑗𝜋𝑓𝑑𝑓

0

− lim𝑇→∞

∫𝜑(𝑓) − 𝜑(−𝑓)

𝑗𝜋𝑓cos(2𝜋𝑓𝑇) 𝑑𝑓

0

(5.8.13)

Poiché la funzione 𝜑(𝑓)−𝜑(−𝑓)

𝑓 è sommabile in (0,∞) ci si convince del

fatto che il limite che compare nell'ultimo membro della precedente vale

0.

Fig. 5.7 - sgm(𝑡)

Page 139: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 127

In definitiva ricordando la (5.2.10) si ha:

⟨𝔉[sgm(𝑡)], 𝜑𝑓⟩ =1

𝑗𝜋VP∫

𝜑(𝑓)

𝑓𝑑𝑓

−∞

=1

𝑗𝜋⟨Pf(𝑓−1), 𝜑𝑓⟩ (5.8.14)

In conclusione quindi:

𝔉[sgm(𝑡)] =1

𝑗𝜋Pf(𝑓−1) (5.8.15)

Trasformata del gradino unitario

Poiché si ha, com'è facile riconoscere:

u(𝑡) =1

2+1

2sgm(𝑡) (5.8.16)

è, tenendo conto del risultato precedente:

𝔉[u(𝑡)] =1

2𝛿(𝑓) + Pf (

1

𝑗2𝜋𝑓) (5.8.17)

Si noti la presenza della delta di Dirac dovuta al termine 1

2 cioè alla com-

ponente continua della u(𝑡).

Proprietà delle trasformate delle distribuzioni. 5.9 -

La trasformata di Fourier di una distribuzione possiede tutte le

proprietà della trasformata di Fourier di una funzione ordinaria già di-

scusse nel CAPITOLO - 4; in particolare:

Linearità

Dalla proprietà di linearità per le distribuzioni discende:

𝔉[𝑆 + 𝑇] = 𝔉[𝑆] + 𝔉[𝑇] (5.9.1)

quali che siano le distribuzioni 𝑆 e 𝑇.

Trasformata della convoluzione

Siano 𝑈 e 𝑉 due distribuzionila prima temperata e la seconda a

supporto limitato.

Per le (5.6.6) e (5.4.7) si ha:

Page 140: Lezioni di TEORIA DEI SEGNALI.pdf

128 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

⟨𝔉[𝑈 ∗ 𝑉], 𝜙𝑓⟩ = ⟨𝑈 ∗ 𝑉, 𝛷𝑡⟩ = ⟨𝑈𝜏 , ⟨𝑉𝜗, 𝛷(𝜏 + 𝜗)⟩⟩

= ⟨𝑈𝜏 , ⟨𝑉𝜗, ∫ 𝜙(𝑓)𝑒−𝑗2𝜋𝑓(𝜏+𝜗)𝑑𝑓∞

−∞

⟩⟩

= ⟨𝑈𝜏 , ∫ 𝜙(𝑓)⟨𝑉𝜗, 𝑒−𝑗2𝜋𝑓𝜗⟩𝑒−𝑗2𝜋𝑓𝜏𝑑𝑓

−∞

(5.9.2)

Poiché, essendo per ipotesi 𝑉 a supporto limitato, ⟨𝑉𝜗, 𝑒−𝑗2𝜋𝑓𝜗⟩ è la tra-

sformata di 𝑉 che è una funzione continua ed infinitamente derivabile di

𝑓 (vedi §.5.7 - ). Pertanto dalla precedente discende:

⟨𝔉[𝑈 ∗ 𝑉], 𝜙𝑓⟩  = ⟨𝑈𝜏 , ∫ 𝜙(𝑓)𝔉[𝑉]𝑒−𝑗2𝜋𝑓𝜏𝑑𝑓

−∞

= ⟨𝑈𝜏 , 𝔉[𝔉[𝑉]𝜙𝑓]⟩ = ⟨𝔉[𝑈], 𝔉[𝑉]𝜙𝑓⟩ = ⟨𝔉[𝑈]𝔉[𝑉], 𝜙𝑓⟩

(5.9.3)

Quindi nel caso in esame risulta:

𝔉[𝑈 ∗ 𝑉] = 𝔉[𝑈] ⋅ 𝔉[𝑉] (5.9.4)

Si perviene allo stesso risultato anche nel caso in cui 𝑉 è una di-

stribuzione regolare individuata da una funzione temperata 𝑣(𝑡) e 𝑈 è

una distribuzione temperata. Si ha infatti:

⟨𝔉[𝑈 ∗ 𝑉], 𝜙𝑓⟩ = ⟨𝑈𝜏, ∫ 𝑣(𝜗)∫ 𝜙(𝑓)𝑒−𝑗2𝜋𝑓(𝜏+𝜗)𝑑𝑓𝑑∞

−∞

𝜗∞

−∞

= ⟨𝑈𝜏 , ∫ 𝜙(𝑓)𝑒−𝑗2𝜋𝑓𝜏 (∫ 𝑣(𝜗)𝑒−𝑗2𝜋𝑓𝜗𝑑𝜗∞

−∞

)𝑑𝑓∞

−∞

= ⟨𝑈𝜏 , ∫ 𝔉[𝑣]𝜙(𝑓)𝑒−𝑗2𝜋𝑓𝜏𝑑𝑓∞

−∞

⟩ = ⟨𝑈𝜏 , 𝔉[𝔉[𝑣]𝜙(𝑓)]⟩

= ⟨𝔉[𝑈], 𝔉[𝑣]𝜙(𝑓)⟩ = ⟨𝔉[𝑣] ⋅ 𝔉[𝑈], 𝜙(𝑓)⟩

(5.9.5)

Derivazione nel dominio del tempo e della frequenza

Se 𝑇 è una distribuzione temperata si può scrivere:

⟨𝔉[𝑇(𝑚)], 𝜙𝑓⟩ = ⟨𝑇(𝑚), 𝛷𝑡⟩ = ⟨𝑇, (−1)𝑚𝛷𝑡

(𝑚)⟩

= ⟨𝑇, 𝔉[(𝑗2𝜋𝑓)𝑚𝜙(𝑓)⟩] = ⟨𝔉[𝑇], (𝑗2𝜋𝑓)𝑚𝜙(𝑓)⟩

= ⟨(𝑗2𝜋𝑓)𝑚𝔉[𝑇], 𝜙𝑓⟩

(5.9.6)

dalla quale discende:

𝔉[𝑇(𝑚)] = (𝑗2𝜋𝑓)𝑚𝔉[𝑇] (5.9.7)

Page 141: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 129

In maniera analoga si può dimostrare:

𝔉−1[𝑇(𝑚)] = (−𝑗2𝜋𝑓)𝑚𝔉−1[𝑇] (5.9.8)

La (5.9.8) può essere usata per valutare la trasformata di Fourier

di un segnale quando la sua derivata prima o le sue derivate successive

sono facilmente trasformabili. Occorre tuttavia procedere con cautela

nell'invertire le operazioni in essa indicate.

Se 𝑠(𝑡) ammette limite finito per |𝑡| → ∞ e se è derivabile in senso

generalizzato, si può scrivere:

𝑠(𝑡) = ∫ 𝑠′(𝜏)𝑑𝜏 + 𝑠(−∞)𝑡

−∞

= ∫ 𝑠′(𝜏)𝑢(𝑡 − 𝜏)𝑑𝜏 + 𝑠(−∞)∞

−∞

   = 𝑠′ ∗ 𝑢 + 𝑠(−∞)

(5.9.9)

La trasformata di Fourier della distribuzione in S associata a 𝑠(𝑡)

si può calcolare quindi, applicando la (5.9.4).

Tenendo conto della (5.8.17) si ha;

𝑆(𝑓) = 𝑆𝐷(𝑓) (1

2𝛿(𝑓) + Pf (

1

𝑗2𝜋𝑓)) + 𝑠(−∞)𝛿(𝑓) (5.9.10)

avendo denotato con 𝑆𝐷(𝑓) la trasformata di Fourier di 𝑠′(𝑡).

Si osservi che la (5.9.10) quindi ha senso quando 𝑠′(𝑡) individua o

una distribuzione a supporto limitato o è una funzione temperata.

Poiché nei casi citati 𝑆𝐷(𝑓) è una funzione continua si può ulte-

riormente scrivere:

𝑆(𝑓) =1

2𝑆𝐷(0)𝛿(𝑓) + 𝑆𝐷(𝑓)Pf (

1

𝑗2𝜋𝑓) + 𝑠(−∞)𝛿(𝑓) (5.9.11)

dalla quale, se 𝑠′(𝑡) è trasformabile in senso ordinario, si deduce:

𝑆(𝑓) =1

2(𝑠(∞) + 𝑠(−∞))𝛿(𝑓) + 𝑆𝐷(𝑓) ⋅ 𝑃𝑓 (

1

𝑗2𝜋𝑓) (5.9.12)

essendo:

𝑆𝐷(0) = ∫ 𝑠′(𝜏)𝑑𝜏∞

−∞

= 𝑠(∞) − 𝑠(−∞) (5.9.13)

Traslazione nel dominio del tempo e della frequenza

Se 𝑇 è una distribuzione temperata, si ha:

Page 142: Lezioni di TEORIA DEI SEGNALI.pdf

130 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

⟨𝔉[𝑇𝑡−𝑡0], 𝜙𝑓⟩ = ⟨𝑇𝑡−𝑡0 , 𝛷𝑡⟩ = ⟨𝑇𝑡 , 𝛷𝑡+𝑡0⟩ = ⟨𝑇, 𝑒

−𝑗2𝜋𝑓𝑡0𝛷𝑡⟩

= ⟨𝑒−𝑗2𝜋𝑓𝑡0𝔉[𝑇], 𝜙𝑓⟩ (5.9.14)

e cioè:

𝔉[𝑇𝑡−𝑡0] = 𝑒−𝑗2𝜋𝑓𝑡0𝔉[𝑇] (5.9.15)

Analogamente risulta:

𝔉−1[𝑇𝑡−𝑡0] = 𝑒𝑗2𝜋𝑓𝑡0𝔉−1[𝑇] (5.9.16)

Esempio 5.2

Derivando due volte, nel senso delle distribuzioni, l'impulso triangolare

∧ (𝑡

𝑇) di durata 𝑇, si ha:

∧′ (𝑡

𝑇) =

2

𝑇(⊓ (

𝑡 + 𝑇/2

𝑇) −⊓ (

𝑡 − 𝑇/2

𝑇))

E

∧″ (𝑡

𝑇) =

2

𝑇(𝛿 (𝑡 +

𝑇

2) − 2𝛿(𝑡) + 𝛿 (𝑡 −

𝑇

2))

La trasformata di Fourier di ∧″ (𝑡

𝑇) vale allora:

𝔉 [∧″ (𝑡

𝑇)] =

2

𝑇(𝑒−𝑗𝜋𝑓𝑇 − 2 + 𝑒𝑗𝜋𝑓𝑇) =

4

𝑇(cos(𝜋𝑓𝑇) − 1)

Applicando la (5.9.8) si deduce:

𝔉[∧′ (𝑡)] =4

𝑇

cos(𝜋𝑓𝑇) − 1

𝑗2𝜋𝑓

Un’ulteriore applicazione della (5.9.8) conduce alla:

𝔉 [∧ (𝑡

𝑇)] =

4

𝑇

1 − cos(𝜋𝑓𝑇)

(2𝜋𝑓)2=𝑇

2sinc2 (

𝑓𝑇

2)

essendo ∧ (∞) =∧ (−∞) = 0.

Esempio 5.3

Derivando successivamente l'impulso cosinusoidale definito dalla:

𝑠(𝑡) = cos (𝜋𝑡

𝑇)⊓ (

𝑡

𝑇)

Si ha

𝑠′(𝑡) = −𝜋

𝑇sin (

𝜋𝑡

𝑇)⊓ (

𝑡

𝑇)

e

Page 143: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 5 - Segnali a Potenza Finita - 131

𝑠″(𝑡) = − (𝜋

𝑇)2

cos (𝜋𝑡

𝑇)⊓ (

𝑡

𝑇) +

𝜋

𝑇𝛿 (𝑡 +

𝑇

2) −

𝜋

𝑇𝛿 (𝑡 −

𝑇

2)

cioè:

𝑠″(𝑡) = −(𝜋

𝑇)2

𝑠(𝑡) +𝜋

𝑇𝛿 (𝑡 +

𝑇

2) −

𝜋

𝑇𝛿 (𝑡 −

𝑇

2)

da cui trasformando:

𝔉[𝑠″(𝑡)] = −(𝜋

𝑇)2

𝔉[𝑠(𝑡)] +𝜋

𝑇(𝑒𝑗𝜋𝑓𝑇 − 𝑒−𝑗𝜋𝑓𝑇)

In definitiva si ha:

𝔉[𝑠(𝑡)] =

{

1

2𝜋𝑇

cos(𝜋𝑓𝑇)

(1

2𝑇)2− 𝑓2

; |𝑓| ≠1

2𝑇

𝑇

2; |𝑓| =

1

2𝑇

Esempio 5.4

La derivata del segnale 𝑠(𝑡) riportato in

Fig.E 5.4 vale:

𝑠′(𝑡) =2

𝑇⊓ (

𝑡

𝑇)

Quindi

𝑆𝐷(𝑓) = 𝔉[𝑠′(𝑡)] = 2sinc(𝑓𝑇)

Essendo 𝑆𝐷(0) = 2 e 𝑠(−∞) = −1, risulta:

𝑆(𝑓) = 2sinc(𝑓𝑇)Pf (1

𝑗𝜋𝑓)

Tabella 5.1

Trasformate di Fourier di alcune distribuzioni notevoli

𝔉[𝛿(𝑡)] = 1

𝔉[𝛿(𝑡 − 𝑡0)] = 𝑒−𝑗2𝜋𝑓𝑡0

𝔉[1] = 𝛿(𝑓)

𝔉[𝑒𝑗2𝜋𝑓0𝑡] = 𝛿(𝑓 − 𝑓0)

𝔉[sgm(𝑡)] =1

𝑗𝜋Pf (

1

𝑓)

𝔉[u(𝑡)] =1

2𝛿(𝑓) +

1

𝑗2𝜋Pf (

1

𝑓)

𝔉[cos(2𝜋𝑓0𝑡)] =1

2[𝛿(𝑓 − 𝑓0) + 𝛿(𝑓 + 𝑓0)]

Fig.E 5.4

Page 144: Lezioni di TEORIA DEI SEGNALI.pdf

132 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝔉[sin(2𝜋𝑓0𝑡)] =1

2𝑗[𝛿(𝑓 − 𝑓0) − 𝛿(𝑓 + 𝑓0)]

𝔉 [ ∑ 𝑆(𝑛)𝑒𝑗2𝜋𝑛𝑡

𝑇0

𝑛=−∞

] =∑𝑆(𝑛)𝛿 (𝑓 −𝑛

𝑇0)

−∞

Page 145: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 6

TRASFORMAZIONI LINEARI DEI SEGNALI

Definizioni. Proprietà generali. 6.1 -

Un sistema di elaborazione dei segnali è un dispositivo che effettua

su uno o più segnali in ingresso un insieme di trasformazioni, come ad

esempio amplificazione, filtraggio, modulazione o rivelazione, trasmis-

sione, etc. Un tale dispositivo è normalmente rappresentato mediante un

blocco funzionale caratterizzato

da un segnale in ingresso 𝑥(𝑡) e

da un segnale in uscita 𝑦(𝑡) (ve-

di Fig. 6.1). La trasformazione

operata dal blocco è identificata da un operatore 𝑆 ed è simbolicamente

rappresentata dalla relazione:

𝑦(𝑡) = 𝑆{𝑥(𝜏)}; 𝑡, 𝜏 ∈ 𝐼 (6.1.1)

Se 𝐼 è un insieme continuo (limitato o illimitato) la trasformazione si di-

ce analogica; se 𝐼 è un insieme discreto (finito o numerabile) la trasfor-

mazione è detta numerica è anche possibile che il segnale in ingresso sia

a tempo continuo e quello di uscita a tempo discreto (ad es. conver-

titori analogico-digitali) o viceversa.

Il segnale in uscita al generico istante 𝑡, in generale, dipende dalla

forma dell'ingresso 𝑥(𝜏) per 𝜏 < 𝑡 (passato), 𝜏 = 𝑡 (presente) e 𝜏 > 𝑡 (fu-

turo). Quando 𝑦(𝑡) dipende solo dal valore assunto dall’ingresso nello

stesso istante 𝑡, la trasformazione si dice priva di memoria.

La trasformazione è detta inoltre non anticipativa se 𝑦(𝑡) dipende

solo dal segnale in ingresso 𝑥(𝜏) per 𝜏 ≤ 𝑡. In caso contrario essa si dirà

anticipativa. Naturalmente se la trasformazione 𝑆 rappresentasse un si-

stema fisico la risposta non potrebbe esistere prima che la sollecitazione

fosse applicata all'ingresso (Principio di causalità); di conseguenza ogni

Fig. 6.1 - Trasformazione di segnali

Page 146: Lezioni di TEORIA DEI SEGNALI.pdf

134 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

sistema fisicamente realizzabile è necessariamente non anticipativo. Tut-

tavia se l'elaborazione del segnale avvenisse in tempo virtuale a mezzo

ad esempio di un calcolatore nella cui memoria siano stati già stati inseri-

ti i dati 𝑥(𝑡), la condizione di causalità potrebbe essere rimossa.

Un'importante classificazione delle trasformazioni di segnali è ba-

sata sul concetto di linearità.

Una trasformazione si dice lineare se ad ogni ingresso del tipo:

𝑥(𝜏) =∑𝑎𝑖𝑥𝑖(𝜏);

𝑁

𝑖=1

𝜏 ∈ 𝐼 (6.1.2)

costituito cioè dalla combinazione lineare di 𝑁 segnali componenti, con

le 𝑎𝑖 costanti reali o complesse non tutte nulle, fa corrispondere un'usci-

ta data dalla:

𝑦(𝑡) =∑𝑎𝑖𝑆{𝑥𝑖(𝜏)};

𝑁

𝑖=1

𝑡, 𝜏 ∈ 𝐼 (6.1.3)

Detto in altre parole, la trasformazione è lineare quando soddisfa

il principio di omogeneità:

𝑆{𝑘𝑥(𝜏)} = 𝑘𝑆{𝑥(𝜏)}; 𝑘 ∈ ℝ (6.1.4)

e di additività:

𝑆{𝑥1(𝜏) + 𝑥2(𝜏)} = 𝑆{𝑥1(𝜏)} + 𝑆{𝑥2(𝜏)} (6.1.5)

Una trasformazione infine si dice tempo invariante se detta 𝑦(𝑡) la

risposta all'ingresso 𝑥(𝜏), all'ingresso 𝑥(𝜏 − 𝜈) corrisponde l'uscita:

𝑦(𝑡 − 𝜈) = 𝑆{𝑥(𝜏 − 𝜈)}; 𝑡, 𝜏,𝜈 ∈ 𝐼 (6.1.6)

Ciò equivale a dire che ad un ritardo nel segnale in ingresso corrisponde

un identico ritardo nel segnale in uscita.

Esempio 6.1

La trasformazione

𝑦(𝑛𝑇) = 𝑥2(𝑛𝑇)

è discreta, non lineare e priva di memoria.

Esempio 6.2

La trasformazione:

𝑦(𝑡) = 𝑡𝑥(𝑡)

Page 147: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 6- Trasformazioni Lineari dei Segnali - 135

è analogica, lineare, priva di memoria e tempo variante giacche è:

𝑡𝑥(𝑡 − 𝜏) ≠ (𝑡 − 𝜏)𝑥(𝑡 − 𝜏)

Esempio 6.3

La trasformazione definita dalla seguente equazione differenziale:

𝑦′(𝑡) + 𝛼𝑦(𝑡) = 𝑥(𝑡)

è lineare e tempo invariante.

Linearità. Per gli ingressi 𝑥1(𝑡) e 𝑥2(𝑡) si ha:

𝑦′1(𝑡) + 𝛼𝑦1(𝑡) = 𝑥1(𝑡)

𝑦′2(𝑡) + 𝛼𝑦2(𝑡) = 𝑥2(𝑡)

da cui, sommando la prima della precedente moltiplicata per 𝑎1 con la se-

conda moltiplicata per 𝑎2, è:

[𝑎1𝑦′1(𝑡) + 𝑎2𝑦

′2(𝑡)] + 𝛼[𝑎1𝑦1(𝑡) + 𝑎2𝑦2(𝑡)] = 𝑎1𝑥1(𝑡) + 𝑎2𝑥2(𝑡)

che mostra che la risposta del sistema all’ingresso 𝑎1𝑥1(𝑡) + 𝑎2𝑥2(𝑡) è

𝑎1𝑦1(𝑡) + 𝑎2𝑦2(𝑡).

Tempo invarianza. Effettuando, nell’equazione differenziale, la trasforma-

zione 𝑡 → 𝑡 − 𝜏 si ha:

𝑦′(𝑡 − 𝜏) + 𝛼𝑦(𝑡 − 𝜏) = 𝑥(𝑡 − 𝜏)

che mostra che la risposta del sistema all’ingresso 𝑥(𝑡 − 𝜏) è 𝑦(𝑡 − 𝜏).

Il sistema è anche dotato di memoria in quanto l’uscita dipende dalla sto-

ria dell’ingresso.

Studio nel dominio del tempo. 6.2 -

In quel che segue ci occuperemo delle trasformazioni lineari a

tempo continuo.

Per definire la forma della trasformazione 𝑆, basta partire dall'i-

dentità:

𝑥(𝑡) = ∫ 𝑥(𝜏)𝛿(𝑡 − 𝜏)𝑑𝜏∞

−∞

(6.2.1)

Se la trasformazione 𝑆 è lineare, si ottiene:

𝑦(𝑡) = 𝑆{𝑥(𝜏)} = 𝑆 {∫ 𝑥(𝜈)𝛿(𝜏 − 𝜈)𝑑𝜈∞

−∞

}

= ∫ 𝑥(𝜈)𝑆{𝛿(𝜏 − 𝜈)}𝑑𝜈∞

−∞

(6.2.2)

la quale, ponendo:

Page 148: Lezioni di TEORIA DEI SEGNALI.pdf

136 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

ℎ(𝑡, 𝜈) = 𝑆{𝛿(𝜏 − 𝜈)} (6.2.3)

diventa:

𝑦(𝑡) = ∫ 𝑥(𝜈)ℎ(𝑡, 𝜈)𝑑𝜈∞

−∞

(6.2.4)

La ℎ(𝑡, 𝜈), definita dalla (6.2.3), corrisponde alla risposta del sistema os-

servata all'istante 𝑡 ad un impulso di Dirac applicato all'istante 𝜈.

Nel linguaggio proprio delle trasformazioni lineari la funzione

ℎ(𝑡, 𝜈) costituisce il cosiddetto nucleo della trasformazione (6.2.4).

Esempio 6.4

Il sistema lineare:

𝑦(𝑡) = 𝑡𝑥(𝑡)

è caratterizzato dalla seguente risposta impulsiva

ℎ(𝑡, 𝜈) = 𝑡𝛿(𝑡 − 𝜈)

Si osservi che il sistema in parola è tempovariante.

Nel caso in cui la trasformazione lineare è tempo invariante, la

(6.2.2) diviene:

ℎ(𝑡, 𝜈) = 𝑆{𝛿(𝜏 − 𝜈)} = ℎ(𝑡 − 𝜈) (6.2.5)

la precedente sta a significare che, nel caso di trasformazioni Li-

neari e Tempo Invarianti (LTI), la risposta impulsiva non dipende in

realtà dalle due variabili 𝑡 e 𝜈, ma dalla loro differenza essa sarà cioè ri-

conducibile ad una funzione ℎ(𝑡) di una sola variabile. In sostanza ab-

biamo indicato con:

ℎ(𝑡) = 𝑆{𝛿(𝜏)} (6.2.6)

La funzione ℎ(𝑡) rappresenta cioè la risposta della trasformazione LTI

ad una delta di Dirac centrata nell’origine dei tempi, essa è pertando

chiamata risposta impulsiva della trasformazione LTI. Sostituendo nella

(6.2.2) si ottiene:

𝑦(𝑡) = ∫ 𝑥(𝜈)ℎ(𝑡 − 𝜈)𝑑𝜈∞

−∞

= ∫ 𝑥(𝑡 − 𝜈)ℎ(𝜈)𝑑𝜈∞

−∞

= 𝒙 ∗ 𝒉 (6.2.7)

cioè: il segnale in uscita da un sistema LTI si ottiene convolvendo il se-

gnale in ingresso con la risposta impulsiva del sistema.

Page 149: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 6- Trasformazioni Lineari dei Segnali - 137

Stabilità di un sistema lineare 6.3 -

Una trasformazione lineare è detta stabile se ad ogni ingresso li-

mitato corrisponde un’uscita limitata (Stabilità BIBO: Bounded Input Boun-

ded Output). Cioè, con

|𝑥(𝑡)| < 𝑀𝑥 (6.3.1)

si deve avere

|𝑦(𝑡)| < 𝑀𝑦 (6.3.2)

Utilizzando la (6.2.4) si ha:

|𝑦(𝑡)| = |∫ 𝑥(𝜏)ℎ(𝑡, 𝜏)𝑑𝜏∞

−∞

| ≤ 𝑀𝑥∫ |ℎ(𝑡, 𝜏)|𝑑𝜏∞

−∞

≤ 𝑀𝑦 (6.3.3)

che equivale a scrivere:

∫ |ℎ(𝑡, 𝜏)|𝑑𝜏∞

−∞

< ∞ (6.3.4)

La precedente è dunque una condizione sufficiente alla stabilità BIBO di

una trasformazione lineare.

Se la trasformazione è anche tempo invariante la precedente di-

venta:

∫ |ℎ(𝑡 − 𝜏)|𝑑𝑡∞

−∞

= ∫ |ℎ(𝑡)|𝑑𝑡∞

−∞

< ∞ (6.3.5)

È da osservare che, nel caso di trasformazioni LTI, la condizione

(6.3.5) è anche necessaria.

Infatti, si supponga che sia ∫ |ℎ(𝑡)|𝑑𝑡∞

−∞= ∞, cioè che la risposta

impulsiva non sia sommabile. Si scelga un ingresso del tipo

𝑥(𝑡) = sgm[ℎ(−𝑡)] (6.3.6)

Esso è manifestamente limitato, ma in corrispondenza ad esso l’uscita,

calcolata in 𝑡 = 0, sarebbe:

𝑦(0) = ∫ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏∞

−∞

|𝑡=0

= ∫ sgm[ℎ(−𝜏)]ℎ(−𝜏)𝑑𝜏∞

−∞

= ∫ |ℎ(𝑡)|𝑑𝑡∞

−∞

= ∞

(6.3.7)

Quindi il sistema non sarebbe stabile in senso BIBO.

Page 150: Lezioni di TEORIA DEI SEGNALI.pdf

138 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Risposta impulsiva di trasformazioni lineari prive di 6.4 - memoria

Se la risposta impulsiva della trasformazione è del tipo

ℎ(𝑡, 𝜏) = 𝜙(𝑡)𝛿(𝑡 − 𝜏) (6.4.1)

la risposta ad un ingresso 𝑥(𝑡) è data dalla:

𝑦(𝑡) = ∫ 𝑥(𝜏)𝜙(𝑡)𝛿(𝑡 − 𝜏)𝑑𝜏∞

−∞

= 𝜙(𝑡)𝑥(𝑡) (6.4.2)

Ciò equivale a dire che il sistema è privo di memoria perchè la risposta

dipende solo dall’ingresso valutato all’istante presente 𝑡. Se la trasforma-

zione è anche tempoinvariante, la condizione (6.4.1) si muta nella

ℎ(𝑡) = 𝑘𝛿(𝑡).

Studio nel dominio della frequenza. 6.5 -

Lo studio delle trasformazioni lineari può essere condotto nel

dominio della frequenza in termini cioè delle trasformate di Fourier

𝑋(𝑓) e 𝑌(𝑓),rispettivamente dei segnali d’ingresso e di uscita. Nel do-

minio della frequenza, la (6.2.4) assume la forma:

𝑌(𝑓) = 𝔉[𝑦(𝑡)] = 𝔉 [∫ 𝑥(𝜈)ℎ(𝑡, 𝜈)𝑑𝜈∞

−∞

]

= ∫ [∫ (∫ 𝑋(𝜑)𝑒𝑗2𝜋𝜑𝜈𝑑𝜑∞

−∞

) ℎ(𝑡, 𝜈)𝑑𝜈 ∞

−∞

] 𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡−∞

−∞

= ∫ 𝑋(𝜑) [∫ ∫ ℎ(𝑡, 𝜈)𝑒−𝑗2𝜋(𝑓𝑡−𝜑𝜈)𝑑𝑡∞

−∞

𝑑𝜈 ∞

−∞

] 𝑑𝜑−∞

−∞

= ∫ 𝑋(𝜑)𝐻(𝑓, −𝜑)𝑑𝜑−∞

−∞

(6.5.1)

Dove ��(𝑓, 𝜑) è la trasformata di Fourier bidimensionale della ℎ(𝑡, 𝜈). La

(6.5.1) rappresenta la trasformazione duale.

Se la trasformazione è LTI, la relazione ingresso uscita è espressa

dall’integrale di convoluzione (6.2.7), e la precedente diventa:

𝑌(𝑓) = 𝐻(𝑓) ⋅ 𝑋(𝑓) (6.5.2)

𝐻(𝑓) definita dalla:

𝐻(𝑓) = 𝔉[ℎ(𝑡)] = ∫ ℎ(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

(6.5.3)

Page 151: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 6- Trasformazioni Lineari dei Segnali - 139

prende il nome di risposta in frequenza del sistema. La trasformazione dua-

le di un sistema LTI si riduce quindi al prodotto della 𝑋(𝑓) per la rispo-

sta in frequenza del sistema.

La deduzione della (6.5.2) dalla (6.2.7) è immediata, è tuttavia in-

teressante, come utile esercizio, ottenerla anche introducendo l’ipotesi di

tempo invarianza nella (6.5.1):

𝑌(𝑓) = 𝔉 [∫ 𝑥(𝜈)ℎ(𝑡 − 𝜈)𝑑𝜈∞

−∞

]

= ∫ [∫ (∫ 𝑋(𝜑)𝑒𝑗2𝜋𝜑𝜈𝑑𝜑∞

−∞

) ℎ(𝑡 − 𝜈)𝑑𝜈 ∞

−∞

] 𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡−∞

−∞

= ∫ 𝑋(𝜑) [∫ 𝑒𝑗2𝜋𝜑𝜈 (∫ ℎ(𝑡 − 𝜈)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

) 𝑑𝜈∞

−∞

] 𝑑𝜑−∞

−∞

= ∫ 𝑋(𝜑) [∫ 𝑒𝑗2𝜋𝜑𝜈(𝐻(𝑓)𝑒−𝑗2𝜋𝑓𝜈) 𝑑𝜈∞

−∞

] 𝑑𝜑−∞

−∞

= ∫ 𝑋(𝜑) [𝐻(𝑓)∫ 𝑒−𝑗2𝜋(𝑓−𝜑)𝜈 𝑑𝜈∞

−∞

] 𝑑𝜑−∞

−∞

= ∫ 𝑋(𝜑)[𝐻(𝑓)δ(𝑓 − 𝜑)]𝑑𝜑−∞

−∞

= 𝐻(𝑓)𝑋(𝑓)

(6.5.4)

In pratica dalla precedente si evince che il modulo della ��(𝑓, −𝜑) di un

sistema LTI si presenta come una “lama”di delta di Dirac “adagiate” sul-

la bisettrice del piano (𝑓, 𝜑) inviluppata da |𝐻(𝑓)|.

Determinazione della risposta in frequenza di una 6.6 - trasformazione LTI.

Nel caso generale può risultare complicata la determinazione della

risposta in frequenza di un sistema lineare. Tuttavia nel caso di trasfor-

mazioni lineari e tempo invarianti il calcolo della 𝐻(𝑓) risulta molto più

semplice. Infatti la risposta ad un ingresso del tipo:

𝑥0(𝑡) = 𝑒𝑗2𝜋𝑓0𝑡 (6.6.1)

vale:

𝑦0(𝑡) = ∫ 𝑒𝑗2𝜋𝑓0(𝑡−𝜏)ℎ(𝜏)𝑑𝜏∞

−∞

= 𝑒𝑗2𝜋𝑓0𝑡∫ ℎ(𝜏)𝑒−𝑗2𝜋𝑓0𝜏𝑑𝜏∞

−∞

(6.6.2)

che, ricordando la (6.5.3), si scrive: 𝑦0(𝑡) = 𝐻(𝑓0)𝑒

𝑗2𝜋𝑓0𝑡 (6.6.3)

Page 152: Lezioni di TEORIA DEI SEGNALI.pdf

140 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Fig.E 6.1

Fig.E 6.2

Cioè, un sistema LTI sollecitato da un segnale del tipo 𝑒𝑗2𝜋𝑓0𝑡 ri-

sponde con un segnale che differisce da esso per unfattore moltipicativo

complesso coincidente con il valore, 𝐻(𝑓0), della risposta in frequenza

alla frequenza 𝑓0

Esempio 6.5

Si determini la risposta in frequenza del sistema definito dalla seguente

equazione differenziale:

𝑦′(𝑡) + 𝛼𝑦(𝑡) = 𝑥(𝑡)

Ponendo:

𝑥0(𝑡) = 𝑒𝑗2𝜋𝑓𝑡

𝑦0(𝑡) = 𝐻(𝑓)𝑒𝑗2𝜋𝑓𝑡

si ottiene:

𝑗2𝜋𝑓𝐻(𝑓)𝑒𝑗2𝜋𝑓𝑡 + 𝛼𝐻(𝑓)𝑒𝑗2𝜋𝑓𝑡 = 𝑒𝑗2𝜋𝑓𝑡

dalla quale si deduce:

𝐻(𝑓) =1

𝛼 + 𝑗2𝜋𝑓

Esempio 6.6

Si determini la risposta in frequenza del

filtro RC passa basso rappresentato in Fig.E

6.1dove 𝑥(𝑡) e 𝑦(𝑡) denotato le tensioni applicate ai morsetti di ingresso e di

uscita rispettivamente.

L'equazione differenziale della rete è

𝑅𝐶𝑦′(𝑡) + 𝑦(𝑡) = 𝑥(𝑡)

Ponendo:

𝑥(𝑡) ≡ 𝑥0(𝑡) = 𝑒𝑗2𝜋𝑓𝑡      𝑦(𝑡) ≡ 𝑦0(𝑡) = 𝐻(𝑓)𝑒

𝑗2𝜋𝑓𝑡

si ha:

𝐻(𝑓) =1

1 + 𝑗2𝜋𝑓𝑅𝐶

E' da osservare che quanto detto equivale a determinare la risposta del si-

stema nel regime sinusoidale permanente; ciò può essere fatto direttamente

sulla base dello schema di Fig.E 6.2 dove al condensatore 𝐶 si è sostituita

l’impedenza 1

𝑗2𝜋𝑓𝐶. Dalla Fig.E 6.2 si deduce infatti:

𝑌(𝑓) = 𝑋(𝑓)1

𝑗2𝜋𝑓𝐶

1

𝑅 +1

𝑗2𝜋𝑓𝐶

Page 153: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 6- Trasformazioni Lineari dei Segnali - 141

Fig.E 6.3

Il modulo della 𝐻(𝑓) vale:

|𝐻(𝑓)| =1

√1 + (2𝜋𝑓𝑅𝐶)2

ed il suo argomento:

𝜗(𝑓) = −arctang(2𝜋𝑓𝑅𝐶)

Come si evince dallaFig.E 6.3, che riporta gli andamenti di |𝐻(𝑓)| e di

𝜗(𝑓) in funzione della frequenza, il sistema presenta un comportamento del

tipo "passa-basso".

Esempio 6.7

Si determini la risposta impulsiva

del sistema lineare e tempo invariante

caratterizzato dalla seguente equazione

differenziale:

𝑦″(𝑡) + 𝑦′(𝑡) + 𝑦(𝑡) = 𝑥(𝑡)

Metodo diretto

La risposta impulsiva si ottiene dalla so-

luzione dell’equazione

(a) ℎ″(𝑡) + ℎ′(𝑡) + ℎ(𝑡) = 𝛿(𝑡)

Poiché l’impulso di Dirac è identica-

mente nullo per 𝑡 ≠ 0, la risposta impulsiva

può essere considerata come una risposta

con ingresso zero partendo dall’istante 𝑡 = 0+.

Questo comporta che, dette 𝛼 e 𝛽 le soluzioni dell’equazione caratteristi-

ca:

𝑠2 + 𝑠 + 1 = 0

cioè

{

𝛼 = −

1

2− 𝑗

√3

2

𝛽 = −1

2+ 𝑗

√3

2

la soluzione con ingresso zero è del tipo:

(b) ℎ(𝑡) = 𝑘1𝑒𝛼𝑡 + 𝑘2𝑒

𝛽𝑡 = 𝑘1𝑒(−1

2+𝑗

√3

2)𝑡 + 𝑘2𝑒

(−1

2−𝑗

√3

2)𝑡

dove le costanti 𝑘1 e 𝑘2 dipendono dalle condizioni iniziali a 𝑡 = 0+ dovute

all’impulso di Dirac. A tale proposito si integri l’equazione (a) da 𝑡 = 0−a

𝑡 = 0+. Si ha:

(c) ℎ′(0+) + ℎ(0+) + ∫ ℎ(𝑡)𝑑𝑡0+

0−= 1

essendo manifestamente ℎ′(0−) = 0; ℎ(0−) = 0; ∫ 𝛿(𝑡)𝑑𝑡0+

0−= 1.

Page 154: Lezioni di TEORIA DEI SEGNALI.pdf

142 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

La risposta impulsiva non può avere discontinuità in 𝑡 = 0, perchè se co-

sì fosse sostituendo nella (a) a primo membro comparirebbe la derivata della

distribuzione delta di Dirac che non è compare nel secondo membro quindi

la (a) non potrebbe essere soddisfatta. Pertano:

∫ ℎ(𝑡)𝑑𝑡0+

0−= 0

che comporta

(d) ℎ(0+) = 0

e quindi dalla (c) si ottiene:

(e) h′(0+) = 1

Le (d) e (e) costituiscono le condizioni iniziali da imporre alla (b). Si pervie-

ne così alla seguente espressione:

ℎ(𝑡) = (𝑗

√3𝑒−

1

2𝑡−𝑗

√3

2𝑡 −

𝑗

√3𝑒−

1

2𝑡+𝑗

√3

2𝑡) u(𝑡) =

2

√3𝑒−

1

2𝑡sin (

√3

2𝑡)u(𝑡)

Allo stesso risultato si può pervenire ricavando la risposta in frequenza,

la risposta impulsiva può essere cioè determinata come trasformata in-

versa di Fourier della risposta in frequenza. A tal proposito ponendo:

𝑥0(𝑡) = 𝑒𝑗2𝜋𝑓𝑡

si ottiene:

(𝑗2𝜋𝑓)2𝐻(𝑓)𝑒𝑗2𝜋𝑓𝑡 + (𝑗2𝜋𝑓)𝐻(𝑓)𝑒𝑗2𝜋𝑓𝑡 + 𝐻(𝑓)𝑒𝑗2𝜋𝑓𝑡 = 𝑒𝑗2𝜋𝑓𝑡

da cui:

𝐻(𝑓) =1

(𝑗2𝜋𝑓)2 + (𝑗2𝜋𝑓) + 1

che, ponendo adesso 𝑝 = 𝑗2𝜋𝑓, diventa:

𝐻(𝑝) =1

𝑝2 + 𝑝 + 1=

1

(𝑝 +1

2− 𝑗

√3

2)(𝑝 +

1

2+ 𝑗

√3

2)

Espandendo la funzione 𝐻(𝑝), così ottenuta, in fratti semplici, si ottiene:

𝐻(𝑝) =𝐴

𝑝 +1

2− 𝑗

√3

2

+𝐵

𝑝 +1

2+ 𝑗

√3

2

dove i coefficienti 𝐴e 𝐵 valgono:

𝐴 = [1

𝑝 +1

2+ 𝑗

√3

2

]

𝑝=−1

2+𝑗

√3

2

= −𝑗1

√3; 𝐵 = [

1

𝑝 +1

2− 𝑗

√3

2

]

𝑝=−1

2−𝑗

√3

2

= 𝑗1

√3

Si ottiene allora:

Page 155: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 6- Trasformazioni Lineari dei Segnali - 143

Fig. 6.2 – Risposta di un sistema

di trasmissione senza di-

storsione

Fig. 6.3 - Risposta in fre-quenza di un sistema senza distorsione

𝐻(𝑓) =1

√3

1

𝑗2𝜋𝑓 +1

2+ 𝑗

√3

2

− 𝑗1

√3

1

𝑗2𝜋𝑓 +1

2− 𝑗

√3

2

la cui antitrasformata coincide con la risposta impulsiva precedentemente

determinata.

Trasmissione senza distorsione. Filtri ideali. 6.7 -

Un sistema di trasmissione si defi-

nisce senza distorsione quando il segnale

in uscita è proporzionale a quello in in-

gresso seppur ritardato di una quantità 𝑇.

(Fig. 6.2). Per un sistema senza distorsione

si ha quindi:

𝑦(𝑡) = ℎ0𝑥(𝑡 − 𝑇) (6.7.1)

dove la costante ℎ0 rappresenta il guada-

gno (ℎ0 > 1) o l’attenuazione (0 < ℎ0 < 1) del sistema.

Trasformando secondo Fourier ambo i

membri della (6.7.1) si ottiene:

𝑌(𝑓) = ℎ0𝑒−𝑗2𝜋𝑓𝑇𝑋(𝑓) (6.7.2)

dalla quale si deduce:

𝐻(𝑓) = ℎ0𝑒−𝑗2𝜋𝑓𝑇 (6.7.3)

In un sistema di trasmissione senza di-

storsione l’ampiezza della 𝐻(𝑓) è costante

mentre il suo argomento risulta proporzionale alla frequenza come è

mostrato in Fig. 6.3.

Un sistema di trasmissione che non introduce distorsioni entro

una certa banda (finita) di frequenza ma non permette, al di fuori di es-

sa, la trasmissione del segnale, costituisce un filtro ideale. A seconda del-

la dislocazione della banda i filtri ideali si distinguono in filtri passa-basso e

filtri passa-banda.

La risposta in frequenza per un filtro passa-basso ideale di banda

𝑓𝑚, che introduce un ritardo 𝑇 ed un’attenuazione ℎ0 è:

𝐻(𝑓) = ℎ0⊓ (𝑓

2𝑓𝑚) 𝑒−𝑗2𝜋𝑓𝑇 (6.7.4)

Page 156: Lezioni di TEORIA DEI SEGNALI.pdf

144 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Fig. 6.4 - Risposte in frequenza di un filtro ideale: a) passa-basso, b) passa-banda

vedi Fig. 6.4 a), la risposta in frequenza di un filtro passabanda ideale

centrato alla frequenza 𝑓0 con banda 𝐵 ritardo 𝑇 ed attenuazione ℎ0 vale

𝐻(𝑓) = ℎ0 (⊓ (𝑓 − 𝑓0𝐵

) +⊓ (𝑓 + 𝑓0𝐵

)) 𝑒−𝑗2𝜋𝑓𝑇 (6.7.5)

vedi Fig. 6.4 b)

Le corrispondenti risposte impulsive valgono:

a) filtro passa-basso:

ℎ(𝑡) = 2ℎ0𝑓𝑚sinc[2𝑓𝑚(𝑡 − 𝑇)] (6.7.6)

b) filtro passa-banda:

ℎ(𝑡) = 2ℎ0𝐵 cos[2𝜋𝑓0(𝑡 − 𝑇)] sinc[𝐵(𝑡 − 𝑇)] (6.7.7)

rappresentano l’ampiezza di banda e la fre-

quenza centrale del filtro.

Come si deduce dalle (6.7.6) e (6.7.7),

risulta ℎ(𝑡) ≠ 0 per 𝑡 < 0 quindi il principio

di causalità è violato, pertanto tali filtri non

sono fisicamente realizzabili, la loro risposta

impulsiva può comunque essere approssia-

mata introducendo un ritardo temporale,

ovvero se si accetta di avere una risposta in

frequenza che rientri in una prefissata ma-

schera di tolleranza ad esempio rispetto alle

piattezza in banda o alla ripidità dei fronti di

discesa al di fuori di essa.

Page 157: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 7

CARATTERIZZAZIONE ENERGETICA DEI SEGNALI

Segnali a energia finita

Densità spettrale di energia. 7.1 - L’energia specifica 𝐸 associata al segnale 𝒔 vale:

𝐸 = ∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

= ∫ 𝑠(𝑡)𝑠∗(𝑡)𝑑𝑡∞

−∞

(7.1.1)

dove 𝑠(𝑡) è una qualsiasi rappresentazione del segnale 𝒔.

Esprimendo 𝑠(𝑡) in termini della sua trasformata di Fourier, si ha:

𝐸 = ∫ 𝑠∗(𝑡) (∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓∞

−∞

)𝑑𝑡∞

−∞

  

= ∫ 𝑆(𝑓) (∫ 𝑠(𝑡)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

)

𝑑𝑓∞

−∞

  = ∫ 𝑆(𝑓)∞

−∞

𝑆∗(𝑓)𝑑𝑓

= ∫ |𝑆(𝑓)|2∞

−∞

𝑑𝑓

(7.1.2)

L’energia specifica di un segnale si può quindi calcolare integrando il

quadrato del modulo della sua trasformata di Fourier (Teorema di Parseval 9).

Se il segnale è reale il modulo della sua trasformata di Fourier è

pari per cui la (7.1.2) si può scrivere:

𝐸 = 2∫ |𝑆(𝑓)|2𝑑𝑓∞

0

(7.1.3)

Da quest'ultima si evince che la porzione 𝑑𝐸 di energia specifica

associata al pacchetto di componenti armoniche del segnale le cui fre-

quenze cadono nell’intervallo (𝑓, 𝑓 + 𝑑𝑓) è data da 2|𝑆(𝑓)|2𝑑𝑓; ciò si-

9 Il Teorema di Parseval è stato già provato in modo formalmente più corretto nel CAPITOLO -

4. In tutto questo capitolo si è preferito sacrificare il rigore formale a vantaggio di una più im-

mediata interpretazione dei risultati.

Page 158: Lezioni di TEORIA DEI SEGNALI.pdf

146 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

gnifica che la funzione |𝑆(𝑓)|2 è proporzionale al rapporto 𝑑𝐸

𝑑𝑓, e pertan-

to assume il significato di densità di energia.

Più in generale, si definisce densità spettrale di energia di un segnale la

quantità:

𝑊(𝑓) = |𝑆(𝑓)|2 (7.1.4)

Essa è una funzione reale e non negativa di 𝑓:

𝑊(𝑓) ≥ 0 (7.1.5)

e tale che il suo integrale risulta pari a 𝐸:

𝐸 = ∫ 𝑊(𝑓)𝑑𝑓∞

−∞

(7.1.6)

Nel caso di segnali reali, dalla condizione di simmetria hermitiana

𝑆(−𝑓) = 𝑆∗(𝑓), discende:

𝑊(−𝑓) = 𝑊(𝑓) (7.1.7)

La densità spettrale di energia di un segnale reale è quindi una

funzione reale e pari di 𝑓.

Le considerazioni svolte possono essere estese al caso di due se-

gnali distinti 𝒔1 e 𝒔2. In tal caso, si introducono le energie specifiche in-

crociate, o mutue, 𝐸12 e 𝐸21 definite dalle:

𝐸12 = ∫ 𝑠1(𝑡)𝑠2∗(𝑡)𝑑𝑡;

−∞

𝐸21 = ∫ 𝑠2(𝑡)𝑠1∗(𝑡)(𝑡)𝑑𝑡;

−∞

(7.1.8)

Si osservi che le precedenti esprimono anche i prodotti scalari

⟨𝒔1, 𝒔2⟩ e ⟨𝒔2, 𝒔1⟩ tra i segnali; cosicché la condizione di ortogonalità di

detti segnali si traduce nella:

𝐸12 = 𝐸21 = 0 (7.1.9)

Le energie incrociate sono quantità, in generale, complesse e ri-

sulta:

𝐸12 = 𝐸21∗ (7.1.10)

Facendo uso della disuguaglianza di Schwarz, si ottiene:

|𝐸12| ≤ √𝐸1 ⋅ √𝐸2, |𝐸21| ≤ √𝐸1 ⋅ √𝐸2 (7.1.11)

Page 159: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali - 147

o anche:

𝐸12𝐸21 ≤ 𝐸1𝐸2 (7.1.12)

essendo 𝐸1 ed 𝐸2 le energie specifiche associate a 𝒔1 e 𝒔2 rispettivamen-

te.

Se i segnali sono reali le quantità 𝐸12 e 𝐸21 sono anch'esse reali; in

tal caso si ha:

𝐸12 = 𝐸21 = ∫ 𝑠1(𝑡)𝑠2(𝑡)𝑑𝑡∞

−∞

(7.1.13)

Denotando con 𝑆1(𝑓) e 𝑆2(𝑓) le trasformate di Fourier di 𝑠1(𝑡) e

𝑠2(𝑡) rispettivamente, dalle (7.1.8) discende:

𝐸12 = ∫ 𝑠1(𝑡) (∫ 𝑆2∗(−𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

−∞

)∞

−∞

𝑑𝑡

= ∫ 𝑆2∗(−𝑓) (∫ 𝑠1(𝑡)𝑒

𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

)∞

−∞

𝑑𝑓

= ∫ 𝑆1(−𝑓)𝑆2∗(−𝑓)𝑑𝑓

−∞

(7.1.14)

che con un cambiamento di variabile può ancora scriversi:

𝐸12 = ∫ 𝑆1(𝑓)𝑆2∗(𝑓)𝑑𝑓

−∞

= ⟨𝑠1, 𝑠2⟩ (7.1.15)

Analogamente si ha:

𝐸21 = ∫ 𝑆2(𝑓)𝑆1∗(𝑓)𝑑𝑓

−∞

= ⟨𝑠2, 𝑠1⟩ (7.1.16)

Queste ultime costituiscono la forma più generale del Teorema di Par-

seval.

Introducendo le densità spettrali di energia incrociate, o mutue:

𝑊12(𝑓) = 𝑆1(𝑓) ⋅ 𝑆2∗(𝑓); 𝑊21(𝑓) = 𝑆2(𝑓) ⋅ 𝑆1

∗(𝑓); (7.1.17)

le (7.1.15) e (7.1.16) divengono rispettivamente:

𝐸12 = ∫ 𝑊12(𝑓)𝑑𝑓∞

−∞

; 𝐸21 = ∫ 𝑊21(𝑓)𝑑𝑓∞

−∞

; (7.1.18)

Le densità spettrali incrociate sono, in generale, complesse e risul-

ta:

Page 160: Lezioni di TEORIA DEI SEGNALI.pdf

148 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑊12(𝑓) = 𝑊21∗ (𝑓); (7.1.19)

Tuttavia, se i segnali sono reali, la precedente, in virtù della sim-

metria hermitiana, si semplifica nella:

𝑊12(𝑓) = 𝑊21(−𝑓) (7.1.20)

Esempio 7.1

Si considerino i due segnali:

𝑠1(𝑡) =⊓ (𝑡

𝑇)

𝑠2(𝑡) = u(𝑡)𝑒−𝑡

𝑇0

Essi sono segnali a energia fini-

ta poiché risulta:

𝐸1 = 𝑇;𝐸2 =𝑇02;

La loro energia incrociata vale:

𝐸12 = 𝐸21 = ∫ 𝑒−𝑡/𝑇0𝑑𝑡

𝑇

2

0

= 𝑇0 (1 − 𝑒−

𝑇

2𝑇0)

L’energia normalizzata vale:

𝜌 =𝐸12

√𝐸1𝐸2= √

2𝑇0𝑇(1 − 𝑒

−𝑇

2𝑇0)

e risulta manifestamente |𝜌| ≤ 1 in accordo con la condizione (7.1.12). In

Fig.E 7.1 è riportato l’andamento di 𝜌 al variare di 𝑇 2𝑇0⁄ . Il suo valore mas-

simo si ottiene quando è verificata la condizione:

𝑒−

𝑇

2𝑇0 =1

1 +𝑇

𝑇0

Il massimo di 𝜌 si raggiunge per 𝑇 2𝑇0⁄ ≈ 1,256 e vale 0,638.

Esempio 7.2

Per il segnale:

𝑠(𝑡) = u(𝑡)𝑒−𝑎𝑡; 𝑎 > 0

si calcoli il contributo all'energia specifica dovuto alla parte del suo spettro

compresa nell'intervallo di frequenze [−𝑎

2𝜋,𝑎

2𝜋].

Tenendo conto dei risultati dell’Esempio 7.1, la densità spettrale di 𝑠(𝑡)

vale:

Fig.E 7.1

Page 161: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali - 149

𝑊(𝑓) =1

𝑎2 + (2𝜋𝑓)2

Pertanto si ha:

𝐸𝑎 = ∫𝑑𝑓

𝑎2 + (2𝜋𝑓)2

𝑎

2𝜋

−𝑎

2𝜋

=1

2𝜋𝑎∫

𝑑𝑥

1 + 𝑥2

1

−1

=1

4𝑎

Esempio 7.3

Sia 𝒔 un segnale ottenuto sommando sue segnali 𝒔1 e 𝒔2 a energia finita:

𝒔 = 𝒔1 + 𝒔2

Dette 𝑆1(𝑓) e 𝑆1(𝑓) le trasformate di Fourier di 𝒔1 e 𝒔2 rispettivamente, la

densità spettrale di potenza di 𝒔 vale:

𝑊(𝑓) = 𝑆(𝑓) ⋅ 𝑆∗(𝑓) = [𝑆1(𝑓) + 𝑆2(𝑓)] ⋅ [𝑆1∗(𝑓) + 𝑆2

∗(𝑓)]

= 𝑆1(𝑓) ⋅ 𝑆1∗(𝑓) + 𝑆1(𝑓) ⋅ 𝑆2

∗(𝑓) + 𝑆2(𝑓) ⋅ 𝑆1∗(𝑓) + 𝑆2(𝑓) ⋅ 𝑆2

∗(𝑓)

la quale, denotando con 𝑊1(𝑓) e 𝑊2(𝑓) le densità spettrali di energia asso-

ciate a 𝒔1 e 𝒔2 e con 𝑊12(𝑓) e 𝑊21(𝑓) le corrispondenti densità spettrali di

energia incrociate, si può riscrivere:

𝑊(𝑓) = 𝑊1(𝑓) +𝑊12(𝑓) +𝑊21(𝑓) +𝑊2(𝑓)

Per caratterizzare completamente dal punto di vista energetico la somma

di due segnali occorre definire pertanto quattro densità spettrali che possono

essere disposte nella seguente matrice:

𝑾(𝑓) = [𝑊1(𝑓) 𝑊12(𝑓)𝑊21(𝑓) 𝑊2(𝑓)

]

che costituisce la matrice delle densità spettrali. Essa è una matrice hermi-

tiana giacché gli elementi della diagonale secondaria risultano complessi co-

niugati.

Funzione di autocorrelazione. 7.2 -

Dato un segnale 𝒔 a energia finita, la funzione a valori general-

mente complessi

𝛾(𝜏) = ∫ 𝑠(𝑡 + 𝜏)𝑠∗(𝑡)𝑑𝑡∞

−∞

(7.2.1)

costituisce la funzione di autocorrelazione ad esso associata. Se il segnale è

reale la sua autocorrelazione è anch'essa reale.

Ponendo nella (7.2.1) 𝜏 = 0 si ottiene:

Page 162: Lezioni di TEORIA DEI SEGNALI.pdf

150 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝛾(0) = ∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

(7.2.2)

Pertanto la funzione di autocorrelazione valutata nell’origine eguaglia

l’energia specifica del segnale.

Effettuando la trasformazione 𝜏 → −𝜏, nella (7.2.1) si ottiene:

𝛾(−𝜏) = ∫ 𝑠(𝑡 − 𝜏)𝑠∗(𝑡)𝑑𝑡∞

−∞

(7.2.3)

che, con la ulteriore sostituzione 𝑡 − 𝜏 = 𝜗, diviene:

𝛾(−𝜏) = ∫ 𝑠(𝜗)𝑠∗(𝜗 + 𝜏)𝑑𝜗∞

−∞

= [∫ 𝑠(𝜗 + 𝜏)𝑠∗(𝜗)𝑑𝜗∞

−∞

]

(7.2.4)

Dal confronto con la (7.2.1), discende:

𝛾∗(𝜏) = 𝛾(−𝜏) (7.2.5)

Quindi l’autocorrelazione di un segnale è una funzione a simmetria

hermitiana.

Applicando la disuguaglianza di Schwarz alla (7.2.1) si ottiene:

|∫ 𝑠(𝑡 + 𝜏)𝑠∗(𝑡)𝑑𝑡

−∞

|

2

≤ ∫ |𝑠(𝑡 + 𝜏)|2𝑑𝑡∞

−∞

∫ |𝑠(𝑡)|2𝑑𝑡∞

−∞

= 𝛾2(0)

(7.2.6)

da cui si evince:

|𝛾(𝜏)| ≤ 𝛾(0) (7.2.7)

Se il segnale è reale, la (7.2.5) diventa:

𝛾(−𝜏) = 𝛾(𝜏) (7.2.8)

cioè, la funzione di autocorrelazione di un segnale reale ha simmetria pa-

ri. La (7.2.7) inoltre assicura che la 𝛾(𝜏) raggiunge il suo valore massimo

𝛾(0) nell'origine.

La conoscenza della funzione di autocorrelazione fornisce inte-

ressanti informazioni riguardo l'andamento del segnale nel dominio del

tempo.

A tal fine si consideri, per semplicità, un segnale reale e si prenda

in esame il seguente integrale:

Page 163: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali - 151

𝑑2(𝜏) = ∫ [𝑠(𝑡) − 𝑠(𝑡 + 𝜏)]2𝑑𝑡∞

−∞

(7.2.9)

che rappresenta il quadrato del-

la distanza euclidea fra il segna-

le 𝑠(𝑡) e la sua versione antici-

pata di 𝜏. È ovvio che, se 𝑠(𝑡)

varia molto lentamente nel

tempo, l'integrando si manterrà

piccolo, almeno per valori di 𝜏

non troppo elevati. Viceversa,

ci si dovrebbero attendere valo-

ri elevati di [𝑠(𝑡) − 𝑠(𝑡 + 𝜏)]2,

quando il segnale varia rapida-

mente nel tempo. Sviluppando la (7.2.9) si ha:

𝑑2(𝜏)

= ∫ 𝑠2(𝑡)𝑑𝑡∞

−∞

− 2∫ 𝑠(𝑡)𝑠(𝑡 + 𝜏)𝑑𝑡∞

−∞

+∫ 𝑠2(𝑡 + 𝜏)𝑑𝑡∞

−∞

(7.2.10)

che, utilizzando la funzione di autocorrelazione si può riscrivere:

𝑑2(𝜏) = 2[𝛾(0) − 𝛾(𝜏)] (7.2.11)

Si può quindi concludere che, tanto più rapide sono le variazioni

del segnale nel tempo, tanto più rapidamente decresce la funzione di au-

tocorrelazione e viceversa.

Osservando la Fig. 7.1, ad esempio, si nota che la curva a) rappre-

senta l'autocorrelazione di un segnale che varia nel tempo più lentamen-

te del segnale cui è associata l'autocorrelazione rappresentata dalla curva

b).

Esempio 7.4

La funzione di autocorrelazione della derivata di un segnale è data dalla:

𝛾𝑠′𝑠′(𝜏) = ∫ 𝑠′(𝑡 + 𝜏)𝑠′∗(𝑡)𝑑𝑡

−∞

Essa può essere messa in relazione con la funzione di autocorrelazione di

𝑠(𝑡):

𝛾𝑠𝑠(𝜏) = ∫ 𝑠(𝑡 + 𝜏)𝑠∗(𝑡)𝑑𝑡∞

−∞

Fig. 7.1 – autocorrelazioni dei segnali:

𝑎) cos(2πt)⊓(2t3); 𝑏) cos(10𝜋𝑡)⊓(2𝑡

3).

Page 164: Lezioni di TEORIA DEI SEGNALI.pdf

152 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Derivando una prima volta 𝛾𝑠𝑠(𝜏) rispetto a 𝜏 si ottiene:

𝑑𝛾𝑠𝑠(𝜏)

𝑑𝜏= ∫ 𝑠′(𝑡 + 𝜏)𝑠∗(𝑡)𝑑𝑡

−∞

che, con un opportuno cambiamento di variabili, può essere scritta nella

forma:

𝑑𝛾𝑠𝑠(𝜏)

𝑑𝜏= ∫ 𝑠′(𝑥)𝑠∗(𝑥 − 𝜏)𝑑𝑥

−∞

Derivando una seconda volta rispetto a 𝜏 si ha:

𝑑2𝛾𝑠𝑠(𝜏)

𝑑𝜏2= −∫ 𝑠′

∗(𝑥 − 𝜏)𝑠′(𝑥)𝑑𝑥

−∞

= −∫ 𝑠′∗(𝑡)𝑠′(𝑡 + 𝜏)𝑑𝜏

−∞

che fornisce:

𝛾𝑠′𝑠′(𝜏) = −𝑑2𝛾𝑠𝑠(𝜏)

𝑑𝜏2

Teorema di Wiener-Khinchine. 7.3 -

Si consideri la trasformata della funzione di autocorrelazione:

𝔉[𝛾(𝜏)] = ∫ 𝛾(𝜏)𝑒−𝑗2𝜋𝑓𝜏𝑑𝜏∞

−∞

(7.3.1)

che, tenendo conto della (7.2.1), diventa:

𝔉[𝛾(𝜏)] = ∫ 𝑒−𝑗2𝜋𝑓𝜏 (∫ 𝑠∗(𝑡)𝑠(𝑡 + 𝜏)𝑑𝑡∞

−∞

) 𝑑𝜏∞

−∞

(7.3.2)

Invertendo l’ordine d’integrazione si ottiene:

𝔉[𝛾(𝜏)] = ∫ 𝑠∗(𝑡) (∫ 𝑠(𝑡 + 𝜏)𝑒−𝑗2𝜋𝑓𝜏𝑑𝜏∞

−∞

) 𝑑𝑡∞

−∞

(7.3.3)

la quale, denotando con 𝑆(𝑓) la trasformata di Fourier del segnale può

essere scritta nella forma:

𝔉[𝛾(𝜏)] = 𝑆(𝑓)∫ 𝑠∗(𝑡)𝑒𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

= 𝑆(𝑓) ⋅ 𝑆∗(𝑓) (7.3.4)

Tenendo infine conto della (7.1.4), si ha:

𝔉[𝛾(𝜏)] = 𝑊(𝑓) (7.3.5)

che è l’espressione formale del Teorema di Wiener-Khinchine.

Page 165: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali - 153

Funzioni di mutua correlazione. 7.4 -

Siano 𝒔1 e 𝒔2 due segnali ad energia finita. A essi si possono asso-

ciare le seguenti funzioni generalmente complesse:

𝛾12(𝜏) = ∫ 𝑠1(𝑡 + 𝜏)𝑠2∗(𝑡)𝑑𝑡

−∞

;

𝛾21(𝜏) = ∫ 𝑠2(𝑡 + 𝜏)𝑠1∗(𝑡)𝑑𝑡

−∞

;

(7.4.1)

che sono dette correlazioni mutue o incrociate.

Si noti che 𝛾12(𝜏) e 𝛾21(𝜏) soddisfano la seguente relazione:

𝛾12(𝜏) = 𝛾21∗ (−𝜏) (7.4.2)

come si dimostra facilmente effettuando nella (7.4.1) la trasformazione

𝑡 + 𝜏 = 𝑥. Si ha infatti:

𝛾12(𝜏) = ∫ 𝑠1(𝑥)𝑠2∗(𝑥 − 𝜏)𝑑𝑥

−∞

= (∫ 𝑠2(𝑥 − 𝜏)𝑠1∗(𝑥)𝑑𝑥

−∞

)

(7.4.3)

che dà luogo alla (7.4.2) ove si tenga presente la definizione (7.4.1).

Se i segnali sono reali le funzioni 𝛾12(𝜏) e 𝛾21(𝜏) sono anch'esse

reali e la condizione (7.4.2) si semplifica nella:

𝛾12(𝜏) = 𝛾21(−𝜏) (7.4.4)

Ponendo nella (7.4.1) 𝜏 = 0 si ottiene:

𝛾12(0) = ∫ 𝑠1(𝑡)𝑠2∗(𝑡)𝑑𝑡

−∞

= 𝐸12;

𝛾21(0) = ∫ 𝑠2(𝑡)𝑠1∗(𝑡)𝑑𝑡

−∞

= 𝐸21;

(7.4.5)

cioè i valori assunti nel punto 𝜏 = 0 dalle due funzioni di mutua correla-

zione coincidono con le corrispondenti energie incrociate.

Applicando la disuguaglianza di Schwarz alle (7.4.1) si deduce:

|𝛾12(𝜏)|

2 ≤ 𝛾1(0) ⋅ 𝛾2(0) = 𝐸1 ⋅ 𝐸2;

|𝛾21(𝜏)|2 ≤ 𝛾1(0) ⋅ 𝛾2(0) = 𝐸1 ⋅ 𝐸2;

(7.4.6)

dove 𝐸1 e 𝐸2 denotano le energie specifiche associate rispettivamente ai

segnali 𝒔1 e 𝒔2.

Se risulta:

Page 166: Lezioni di TEORIA DEI SEGNALI.pdf

154 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝛾12(𝜏) = 𝛾21(𝜏) = 0 (7.4.7)

i due segnali si dicono incorrelati. Ponendo nella (7.4.3), 𝜏 = 0 si ottiene:

∫ 𝑠1(𝑡)𝑠2∗(𝑡)𝑑𝑡

−∞

= 0 (7.4.8)

che corrisponde alla condizione di ortogonalità tra i due segnali. Ciò si-

gnifica che se due segnali sono incorrelati sono anche ortogonali; il vice-

versa in genere non vale. La condizione d’incorrelazione pertanto è più

forte di quella di ortogonalità.

È facile infine riconoscere che con procedimento analogo a quel-

lo seguito per dedurre la (7.3.5) si ottengono le:

𝔉[𝛾12(𝜏)] = 𝑊12(𝑓);       𝔉[𝛾21(𝜏)] = 𝑊21(𝑓); (7.4.9)

che costituiscono una naturale estensione del teorema di Wiener-

Khinchine al caso delle funzioni

di mutua correlazione.

Esempio 7.5

La funzione di correlazione in-

crociata 𝛾12(𝜏) per i segnali

𝑠1(𝑡) = u(𝑡)𝑒−𝑡

𝑇0

𝑠2(𝑡) =⊓ (𝑡

𝑇0) ;

vale:

𝛾12(𝜏) = ∫ ⊓ (𝑡

𝑇0) u(𝑡 + 𝜏)𝑒

−𝑡+𝜏

𝑇0 𝑑𝑡∞

−∞

= ∫ u(𝑡 + 𝜏)𝑒−𝑡+𝜏

𝑇0 𝑑𝑡

𝑇02

−𝑇02

=⊓ (𝜏

𝑇0) 𝑒

−𝜏

𝑇0∫ 𝑒−𝑡

𝑇0𝑑𝑡

𝑇02

−𝜏

+ u(𝜏 −𝑇02) 𝑒

−𝜏

𝑇0∫ 𝑒−𝑡

𝑇0𝑑𝑡

𝑇02

−𝑇02

= 𝑇0𝑒−𝜏

𝑇0 [(𝑒𝜏

𝑇0 − 𝑒−1

2)⊓ (𝜏

𝑇0) + (𝑒

1

2 − 𝑒−1

2) u (𝜏

𝑇0−1

2)]

il cui andamento in funzione di 𝜏 𝑇0⁄ è riportato in Fig.E 7.2

In maniera analoga si ha (vedi Fig.E 7.2):

𝛾21(𝜏) = 𝛾12(−𝜏) = 𝑇0𝑒𝜏

𝑇0 [(𝑒−𝜏

𝑇0 − 𝑒−1

2)⊓ (𝜏

𝑇0) + (𝑒

1

2 − 𝑒−1

2) u (−𝜏

𝑇0+1

2)]

Fig.E 7.2

Page 167: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali - 155

Segnali a potenza finita

Densità spettrale di potenza. 7.5 -

È noto che se un segnale è a potenza finita, la quantità:

𝑃 = lim𝑇→∞

1

𝑇∫ |𝑠(𝑡)|2𝑑𝑡

𝑇

2

−𝑇

2

(7.5.1)

è positiva e limitata.

Introducendo il segnale troncato 𝑠𝑇(𝑡) la (7.5.1) diventa:

𝑃 = lim𝑇→∞

1

𝑇∫ |𝑠𝑇(𝑡)|

2𝑑𝑡∞

−∞

(7.5.2)

Per un fissato valore di 𝑇 il segnale 𝑠𝑇(𝑡) è ad energia finita; per-

tanto, detta 𝑆𝑇(𝑓) la sua trasformata di Fourier, utilizzando il teorema di

Parseval, si può scrivere:

∫ |𝑠(𝑡)|2𝑑𝑡𝑇

−𝑇

= ∫ |𝑠𝑇(𝑡)|2𝑑𝑡

−∞

= ∫ |𝑆𝑇(𝑓)|2𝑑𝑓

−∞

(7.5.3)

Di conseguenza la potenza specifica 𝑃 può essere posta nella

forma:

𝑃 = lim𝑇→∞

1

𝑇∫ |𝑆𝑇(𝑓)|

2𝑑𝑓∞

−∞

= ∫ lim𝑇→∞

|𝑆𝑇(𝑓)|2

𝑇𝑑𝑓

−∞

(7.5.4)

Risulta quindi immediato associare al segnale 𝑠(𝑡) la seguente espressio-

ne per la densità spettrale di potenza10

𝑊(𝑓) = lim𝑇→∞

|𝑆𝑇(𝑓)|2

𝑇 (7.5.5)

La potenza specifica del segnale così diventa:

𝑃 = ∫ 𝑊(𝑓)𝑑𝑓∞

−∞

(7.5.6)

10

Si osservi che il simbolo adottato per la densità spettrale di potenza è lo stesso di quello

adoperato per la densità spettrale di energia. Al fine di non incorrere in spiacevoli equivoci è necessario pertanto precisare la classe di segnali (ad energia finita o a potenza finita) che via via si prendono in considerazione. Le stesse precauzioni si dovranno prendere a proposito del-le funzioni di correlazione più avanti definite.

Page 168: Lezioni di TEORIA DEI SEGNALI.pdf

156 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Analogamente alla densità spettrale di energia introdotta nel §

7.1 - , la densità spettrale di potenza è una funzione reale e non negativa

della variabile 𝑓. Nel caso in cui 𝑠(𝑡) sia reale è manifestamente:

𝑊(−𝑓) = 𝑊(𝑓) (7.5.7)

La densità spettrale di potenza associata ad un segnale reale è quindi una

funzione reale, non negativa e pari della frequenza.

Se 𝑠1(𝑡) e 𝑠2(𝑡) denotano due segnali a potenza finita le loro po-

tenze specifiche mutue o potenze specifiche incrociate sono:

𝑃12 = lim𝑇→∞

1

𝑇∫ 𝑠1(𝑡)𝑠2

∗(𝑡)𝑑𝑡

𝑇

2

−𝑇

2

;

𝑃21 = lim𝑇→∞

1

𝑇∫ 𝑠2(𝑡)𝑠1

∗(𝑡)𝑑𝑡.

𝑇

2

−𝑇

2

(7.5.8)

Le quantità 𝑃12e 𝑃21 sono, in generale, complesse. Esse inoltre obbedi-

scono alla condizione:

𝑃12 = 𝑃21∗ (7.5.9)

Applicando la disuguaglianza di Schwarz si ottiene:

|∫ 𝑠1(𝑡)𝑠2∗𝑑𝑡

𝑇

2

−𝑇

2

|

2

≤ ∫ |𝑠1(𝑡)|2𝑑𝑡

𝑇

2

−𝑇

2

∫ |𝑠2(𝑡)|2𝑑𝑡

𝑇

2

−𝑇

2

;

|∫ 𝑠1∗(𝑡)𝑠2𝑑𝑡

𝑇

2

−𝑇

2

|

2

≤ ∫ |𝑠1(𝑡)|2𝑑𝑡

𝑇

2

−𝑇

2

∫ |𝑠2(𝑡)|2𝑑𝑡

𝑇

2

−𝑇

2

;

(7.5.10)

dalla quale, tenendo conto delle (7.5.8), discende:

|𝑃12| ≤ √𝑃1√𝑃2;         |𝑃21| ≤ √𝑃1√𝑃2 (7.5.11)

dove 𝑃1 e 𝑃2 sono le potenze specifiche associate a 𝑠1(𝑡) e 𝑠2(𝑡).

Due segnali a potenza finita si dicono ortogonali se risulta:

𝑃12 = 𝑃21 = 0 (7.5.12)

Indicando con 𝑠1𝑇(𝑡) e 𝑠2𝑇(𝑡) i segnali troncati associati a 𝑠1(𝑡) e

𝑠2(𝑡) rispettivamente è facile riconoscere che le potenze mutue si pos-

sono porre nella forma seguente:

Page 169: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali - 157

𝑃12 = ∫ lim𝑇→∞

𝑆1𝑇∗ (𝑓)𝑆2𝑇(𝑓)

𝑇𝑑𝑓

−∞

;

𝑃21 = ∫ lim𝑇→∞

𝑆1𝑇(𝑓)𝑆2𝑇∗ (𝑓)

𝑇𝑑𝑓

−∞

;

(7.5.13)

avendo denotato con 𝑆1𝑇(𝑓) e 𝑆2𝑇(𝑓) le trasformate di Fourier di 𝑠1𝑇(𝑡)

e 𝑠2𝑇(𝑡) rispettivamente.

Dalle espressioni di 𝑃12 e 𝑃21 si deducono le seguenti definizioni

per le densità spettrali di potenza mutue (o incrociate):

𝑊12(𝑓) = lim𝑇→∞

𝑆1𝑇(𝑓)𝑆2𝑇∗ (𝑓)

𝑇;

𝑊21(𝑓) = lim𝑇→∞

𝑆2𝑇(𝑓)𝑆1𝑇∗ (𝑓)

𝑇;

(7.5.14)

Si ha:

𝑃12 = ∫ 𝑊12(𝑓)𝑑𝑓;∞

−∞

𝑃21 = ∫ 𝑊21(𝑓)𝑑𝑓∞

−∞

;

(7.5.15)

Per 𝑊12(𝑓) e 𝑊21(𝑓), si ha:

𝑊12(𝑓) = 𝑊21∗ (𝑓) (7.5.16)

Esempio 7.6

Il segnale:

𝑠(𝑡) =∑𝑉𝑖 cos(2𝜋𝑓𝑖𝑡)

𝑛

𝑖=1

è un segnale a potenza finita. Infatti essendo:

𝑠2(𝑡)

= ∑ 𝑉𝑖𝑉𝑗 cos(2𝜋𝑓𝑖𝑡) cos(2𝜋𝑓𝑗𝑡)

𝑛

𝑖,𝑗=1

=∑𝑉𝑖2 cos2(2𝜋𝑓𝑖𝑡) +

𝑛

𝑖=1

1

2∑ 𝑉𝑖𝑉𝑗[cos(2𝜋(𝑓𝑖 − 𝑓𝑗)𝑡) + cos(2𝜋(𝑓𝑖 + 𝑓𝑗)𝑡)]

𝑛

𝑖,𝑗=1𝑖≠𝑗

risulta:

Page 170: Lezioni di TEORIA DEI SEGNALI.pdf

158 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑃

= lim𝑇→∞

1

2𝑇

[

∑ 𝑉𝑖𝑉𝑗∫ [cos(2𝜋(𝑓𝑖 − 𝑓𝑗)𝑡) + cos(2𝜋(𝑓𝑖 + 𝑓𝑗)𝑡)]𝑑𝑡𝑇

−𝑇

𝑛

𝑖,𝑗=1 𝑖≠𝑗

+∑𝑉𝑖2∫ (cos(4𝜋𝑓𝑖𝑡) + 1)𝑑𝑡

𝑇

−𝑇

𝑛

𝑖=1]

=1

2lim𝑇→∞

{

∑ 𝑉𝑖𝑉𝑗 [sin(𝜋(𝑓𝑖 − 𝑓𝑗)𝑇)

𝜋(𝑓𝑖 − 𝑓𝑗)𝑇+sin(𝜋(𝑓𝑖 + 𝑓𝑗)𝑇)

𝜋(𝑓𝑖 + 𝑓𝑗)𝑇]

𝑛

𝑖,𝑗=1 𝑖≠𝑗

+∑𝑉𝑖2sin(2𝜋𝑓𝑖𝑇)

2𝜋𝑓𝑖𝑇+∑𝑉𝑖

2

𝑛

𝑖=1

𝑛

𝑖=1}

=∑𝑉𝑖2

𝑛

𝑖=1

Funzioni di correlazione. 7.6 -

La funzione di autocorrelazione di un segnale 𝑠(𝑡) a potenza fini-

ta è definita dalla:

𝛾(𝜏) = lim𝑇→∞

1

𝑇∫ 𝑠(𝑡 + 𝜏)𝑠∗(𝑡)𝑑𝑡

𝑇

2

−𝑇

2

(7.6.1)

Essa è una funzione, in generale complessa, della quantità 𝜏; è reale nel

caso di segnali reali. Nel punto 𝜏 = 0 la 𝛾(𝜏) vale:

𝛾(0) = lim𝑇→∞

1

𝑇∫ 𝑠(𝑡)𝑠∗(𝑡)𝑑𝑡

𝑇

2

−𝑇

2

(7.6.2)

ed è quindi uguale alla potenza specifica del segnale.

Ponendo nella (7.6.1) 𝜏 → −𝜏 e successivamente 𝑡 − 𝜏 = 𝜗 si ot-

tiene:

𝛾(−𝜏) = lim𝑇→∞

1

𝑇∫ 𝑠(𝑡 − 𝜏)𝑠∗(𝑡)𝑑𝑡

𝑇

2

−𝑇

2

= lim𝑇→∞

1

𝑇∫ 𝑠(𝜗)𝑠∗(𝜗 + 𝜏)𝑑𝜗

𝑇

2−𝜏

−𝑇

2−𝜏

= lim𝑇→∞

1

𝑇∫ 𝑠(𝜗)𝑠∗(𝜗+ 𝜏)𝑑𝜗

𝑇2

−𝑇2

+ lim𝑇→∞

1

𝑇(∫ 𝑠(𝜗)𝑠∗(𝜗 + 𝜏)𝑑𝜗 +

−𝑇2

−𝑇2−𝜏

∫ 𝑠(𝜗)𝑠∗(𝜗 + 𝜏)𝑑𝜗

𝑇2−𝜏

𝑇2

)

= 𝛾∗(𝜏)

(7.6.3)

Page 171: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali - 159

dove si è tenuto conto del fatto che, per ogni valore di 𝜏, gli integrali che

compaiono nel secondo limite al penultimo membro sono certamente

finiti. In conclusione si può affermare che la funzione di autocorrelazio-

ne di un segnale a potenza finita è a simmetria hermitiana.

Per segnali reali la (7.6.3) si riduce alla:

𝛾(𝜏) = 𝛾(−𝜏) (7.6.4)

In virtù della disuguaglianza di Schwarz, si può infine scrivere:

|𝛾(𝜏)| ≤ 𝛾(0) = 𝑃 (7.6.5)

Per segnali reali, quindi, la funzione 𝛾(𝜏)raggiunge in 𝜏 = 0 un massimo

assoluto. Detta 𝛾𝑇(𝜏) la funzione di autocorrelazione del segnale tronca-

to, si ha (vedi Fig. 7.2):

𝛾𝑇(𝜏) = ∫ 𝑠𝑇∗(𝑡)𝑠𝑇(𝑡 + 𝜏)𝑑𝑡

−∞

= u(−𝜏)∫ 𝑠∗(𝑡)𝑠(𝑡 + 𝜏)𝑑𝑡

𝑇

2

−𝑇

2−𝜏

+ u(𝜏)∫ 𝑠∗(𝑡)𝑠(𝑡 + 𝜏)𝑑𝑡

𝑇

2−𝜏

−𝑇

2

(7.6.6)

Considerazioni analoghe a

quelle che hanno condotto al-

la (7.6.3) consentono di scri-

vere:

𝛾(𝜏) = lim𝑇→∞

𝛾𝑇(𝜏)

𝑇 (7.6.7)

Si osservi adesso che

poiché 𝑠𝑇(𝑡) è ad energia fi-

nita, per esso vale il teorema

di WienerKhinchine per cui, detta 𝑆𝑇(𝑓) la sua trasformata di Fourier, si

ha:

𝔉[𝛾𝑇(𝜏)] = |𝑆𝑇(𝑓)|2 (7.6.8)

Trasformando ambo i membri della (7.6.7) risulta:

𝔉[𝛾(𝜏)] = lim𝑇→∞

|𝑆𝑇(𝑓)|2

𝑇 (7.6.9)

Dal confronto con la (7.5.5), si deduce quindi:

𝔉[𝛾(𝜏)] = 𝑊(𝑓) (7.6.10)

Fig. 7.2 - Segnale troncato e sue traslazioni.

Page 172: Lezioni di TEORIA DEI SEGNALI.pdf

160 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

che estende il teorema di Wiener-Khinchine anche al caso dei segnali a

potenza finita.

Nel caso di due segnali 𝑠1(𝑡) e 𝑠2(𝑡) a potenza finita si possono

definire le correlazioni incrociate, o mutue mediante le:

𝛾12(𝜏) = lim𝑇→∞

1

2𝑇∫ 𝑠1(𝑡 + 𝜏)𝑠2

∗(𝑡)𝑑𝑡

𝑇

2

−𝑇

2

𝛾21(𝜏) = lim𝑇→∞

1

2𝑇∫ 𝑠2(𝑡 + 𝜏)𝑠1

∗(𝑡)𝑑𝑡

𝑇

2

−𝑇

2

(7.6.11)

Si verifica facilmente che:

𝛾12(𝜏) = 𝛾21∗ (−𝜏) (7.6.12)

e che, dette 𝛾1(𝜏) e 𝛾2(𝜏), 𝑃1 e 𝑃2 le autocorrelazioni e le potenze speci-

fiche associate a 𝑠1(𝑡) e a 𝑠2(𝑡) rispettivamente, si ha:

|𝛾21(−𝜏)|2 = |𝛾12(𝜏)|

2 ≤ 𝛾1(0) ⋅ 𝛾2(0) = 𝑃1 ⋅ 𝑃2 (7.6.13)

Quando risulta 𝛾12(𝜏) = 𝛾21(𝜏) = 0 i segnali si dicono incorrelati.

Si noti che ponendo 𝜏 = 0 nella condizione di incorrelazione si ottiene

𝑃12 = 𝑃21 = 0; ciò significa che, l'ortogonalità è soltanto una condizione

necessaria per la incorrelazione.

Procedendo come per il caso della funzione di autocorrelazione,

si può mostrare che valgono le relazioni:

𝔉[𝛾12(𝜏)] = 𝑊12(𝑓)

𝔉[𝛾21(𝜏)] = 𝑊21(𝑓) (7.6.14)

cioè le funzioni di mutua correlazione e le rispettive densità spettrali co-

stituiscono coppie di trasformate di Fourier.

Esempio 7.7

La funzione di autocorrelazione del segnale di cui all’Esempio 7.6 vale:

𝛾(𝜏) = ∑ 𝑉𝑖𝑉𝑗 lim𝑇→∞

1

𝑇∫ cos(2𝜋𝑓𝑖𝑡) cos (2𝜋𝑓𝑗(𝑡 + 𝜏)) 𝑑𝑡

𝑇

2

−𝑇

2

𝑛

𝑖,𝑗=1

= ∑𝑉𝑖𝑉𝑗

2lim𝑇→∞

1

𝑇∫ {cos [2𝜋 ((𝑓𝑖 + 𝑓𝑗)𝑡 + 𝑓𝑗𝜏)] + cos[2𝜋(𝑓𝑖 − 𝑓𝑗)𝑡 − 𝑓𝑗𝜏]} 𝑑𝑡

𝑇

2

−𝑇

2

𝑛

𝑖,𝑗=1𝑖≠𝑗

+∑𝑉𝑖2

2lim𝑇→∞

1

𝑇∫ {cos(2𝜋𝑓𝑖(2𝑡 + 𝜏)) + cos(2𝜋𝑓𝑖𝜏)}𝑑𝑡

𝑇

2

−𝑇

2

𝑛

𝑖=1

Page 173: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 7 - Caratterizzazione Energetica dei Segnali - 161

= ∑𝑉𝑖𝑉𝑗

2lim𝑇→∞

{

[sin [2𝜋 ((𝑓𝑖 + 𝑓𝑗)𝑡 + 𝑓𝑗𝜏)]

2𝜋(𝑓𝑖 + 𝑓𝑗)𝑇]

−𝑇

2

−𝑇

2𝑛

𝑖,𝑗=1𝑖≠𝑗

+ [sin [2𝜋 ((𝑓𝑖 − 𝑓𝑗)𝑡 − 𝑓𝑗𝜏)]

2𝜋(𝑓𝑖 − 𝑓𝑗)𝑇]

−𝑇

2

−𝑇

2

}

+∑𝑉𝑖2

2lim𝑇→∞

{[sin(2𝜋𝑓𝑖(2𝑡 + 𝜏))

4𝜋𝑓𝑖𝑇]−𝑇

2

−𝑇

2

+ cos(2𝜋𝑓𝑖𝜏)}

𝑛

𝑖=1

=1

2∑𝑉𝑖

2 cos(2𝜋𝑓𝑖𝜏)

𝑛

𝑖=1

La corrispondente densità spettrale vale quindi:

𝑊(𝑓) = 𝔉[𝛾(𝜏)] =∑𝑉𝑖2

4[𝛿(𝑓 − 𝑓𝑖) + 𝛿(𝑓 + 𝑓𝑖)]

𝑛

𝑖=1

Esempio 7.8

Sia 𝑠(𝑡) un segnale, periodico di periodo 𝑇0, che può essere quindi svi-

luppato in serie di Fourier:

𝑠(𝑡) = ∑ 𝑆𝑛𝑒𝑗2𝜋𝑛𝑡

𝑇0

𝑛=−∞

Esso è un segnale a potenza finita e la sua funzione di autocorrelazione può

essere scritta nella forma:

𝛾(𝜏) = lim𝑇→∞

1

𝑇∫ ( ∑ 𝑆𝑛

∗𝑒−𝑗

2𝜋𝑛𝑡

𝑇0

𝑛=−∞

∑ 𝑆𝑚𝑒𝑗2𝜋𝑚(𝑡+𝜏)

𝑇0

𝑚=−∞

)

𝑇

2

−𝑇

2

𝑑𝑡

= ∑ 𝑆𝑛∗𝑆𝑚𝑒

𝑗2𝜋𝑚𝜏

𝑇 lim𝑇→∞

1

𝑇∫ 𝑒

𝑗2𝜋(𝑚−𝑛)𝑡

𝑇0 𝑑𝑡

𝑇

2

−𝑇

2

𝑛,𝑚=−∞

= ∑ 𝑆𝑛∗𝑆𝑛𝑒

𝑗2𝜋𝑛𝜏

𝑇

𝑛=−∞

+ ∑ 𝑆𝑛∗𝑆𝑚𝑒

𝑗2𝜋𝑚𝜏

𝑇 lim𝑇→∞

sin [𝜋(𝑚 − 𝑛)𝑇

𝑇0]

𝜋(𝑚 − 𝑛)𝑇

𝑇0

𝑛,𝑚=−∞𝑛≠𝑚

= ∑ |𝑆𝑛|2𝑒

𝑗2𝜋𝑛𝜏

𝑇0

𝑛=−∞

La funzione di autocorrelazione è dunque una funzione periodica di pe-

riodo 𝑇0 ed il generico coefficiente del suo sviluppo in serie di Fourier vale:

𝛤𝑛 = |𝑆𝑛|2

Page 174: Lezioni di TEORIA DEI SEGNALI.pdf

162 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Si osservi che l'integrale che compare nel calcolo dell'autocorrelazione,

può essere espresso anche utilizzando la funzione sinc(⋅). Si può infatti scri-

vere:

1

𝑇∫ 𝑒

𝑗2𝜋(𝑚−𝑛)𝑡

𝑇0 𝑑𝑡

𝑇

2

−𝑇

2

= sinc ((𝑚 − 𝑛)𝑇

𝑇0)

È evidente che la precedente è valida anche se l'argomento dell'e-

sponenziale è identicamente nullo, non si rende quindi necessaria la distin-

zione tra i casi 𝑛 = 𝑚, 𝑛 ≠ 𝑚.

Page 175: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 8

CARATTERISTICHE E PROPRIETÀ DEI SEGNALI

Segnale analitico. Trasformata di Hilbert. 8.1 -

In alcune applicazioni della teoria della modulazione, come pure

nello studio della risposta dei filtri

passabanda, è opportuno caratte-

rizzare i segnali reali fornendo una

rappresentazione che generalizza

quella che usualmente si adotta per

lo studio dei circuiti in regime sinu-

soidale. Tale generalizzazione si ba-

sa sul concetto di segnale analitico. Si consideri un segnale reale

𝑠(𝑡) la cui trasformata di Fourier

𝑆(𝑓) è rappresentata in Fig. 8.1. Al-

la 𝑆(𝑓) si può associare una funzione 𝑍(𝑓):

𝑍(𝑓) = 𝑆(𝑓)[1 + sgm(𝑓)] (8.1.1)

come è mostrato nella stessa Fig. 8.1. Tale funzione è manifestamente

unilatera giacché essa è identicamente nulla per 𝑓 < 0; pertanto la sua

antitrasformata 𝑧(𝑡) è una funzione complessa poiché la 𝑍(𝑓) non è a

simmetria hermitiana. L'antitrasformata di 𝑍(𝑓) si può effettuare facil-

mente applicando il teorema della convoluzione nel dominio del tempo

e osservando che l’espressione dell’antitrasformata della funzione

sgm(𝑓) risulta, per la proprietà di simmetria:

𝔉-1[sgm(𝑓)] = −Pf (1

𝑗𝜋𝑡) = 𝑗Pf (

1

𝜋𝑡) (8.1.2)

Si ottiene così:

𝑧(𝑡) = 𝑠(𝑡) ∗ (𝛿(𝑡) + 𝑗Pf (1

𝜋𝑡)) (8.1.3)

che, ponendo:

Fig. 8.1 - a) Modulo della trasformata di

𝑠(𝑡); b) modulo dellatrasformata del se-

gnale analitico 𝑧(𝑡) ad esso associato.

Page 176: Lezioni di TEORIA DEI SEGNALI.pdf

164 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

s(𝑡) =1

𝜋VP∫

𝑠(𝜏)

𝑡 − 𝜏𝑑𝜏

−∞

(8.1.4)

si può riscrivere:

𝑧(𝑡) = 𝑠(𝑡) + 𝑗��(𝑡) (8.1.5)

Dalla (8.1.4) si deduce che s(𝑡) è ottenuta dalla convoluzione tra

𝑠(𝑡) e la pseudofunzione Pf (1

𝜋𝑡) cioè:

��(𝑡) = 𝑠(𝑡) ∗ Pf (1

𝜋𝑡) (8.1.6)

che trasformata secondo Fourier dà luogo alla:

��(𝑓) = 𝔉[��(𝑡)] = −𝑗𝑆(𝑓)sgm(𝑓) (8.1.7)

quindi:

𝑆(𝑓) =��(𝑓)

−𝑗sgm(𝑓)= 𝑗��(𝑓)sgm(𝑓) (8.1.8)

da cui antitrasformando:

𝑠(𝑡) = −1

𝜋VP∫

��(𝜏)

𝑡 − 𝜏𝑑𝜏

−∞

(8.1.9)

Le trasformazioni (8.1.4) (8.1.9) vengono dette rispettivamente

trasformata e antitrasformata di Hilbert. Esse si denotano con i simboli:

ℋ[∙], ℋ−1[∙] (8.1.10)

Il segnale complesso 𝑧(𝑡), definito dalla (8.1.5), prende il nome di

segnale analitico associato a 𝑠(𝑡); la ragione di questa denominazione sta

nel fatto che se una funzione complessa 𝑓(𝑤), di variabile complessa

𝑤 = 𝑢 + 𝑗𝑣, è analitica su tutto il semipiano superiore (𝑢 > 0), la parte

reale ed il coefficiente della parte immaginaria di 𝑓(𝑤) costituiscono una

coppia di trasformate di Hilbert e viceversa.

Osserviamo inoltre che se 𝑠(𝑡) rappresenta un segnale 𝒔 ad energia fini-

ta, tale è anche la sua trasformata di Hilbert e risulta:

⟨𝒔, ��⟩=⟨𝑺, ��⟩ = ∫ 𝑆(𝑓)��∗(𝑓)∞

−∞𝑑𝑓 =

𝑗 ∫ 𝑆(𝑓)∞

−∞𝑆∗(𝑓)sgm(𝑓)𝑑𝑓 = 0

(8.1.11)

Page 177: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 8 - Caratteristiche e Proprietà dei Segnali - 165

Il risultato è zero in

quanto essendo il segna-

le reale la funzione inte-

granda è dispari. Pos-

siamo quindi affermare

che un segnale 𝒔 e quel-

lo associato alla tra-

sformata di Hilbert di

una funzione che lo

rappresenta sono orto-

gonali.

Esempio 8.1

Applicando la definizione (8.1.4) al rettangolo unitario di durata T si ha:

ℋ [⊓ (𝑡

𝑇)] =

1

𝜋VP∫

⊓ (𝜏

𝑇)

𝑡 − 𝜏𝑑𝜏

−∞

=1

𝜋VP∫

𝑑𝜏

𝑡 − 𝜏

T

2

-T

2

=1

𝜋lim→0(∫

𝑑𝜏

𝑡 − 𝜏

−𝑇

2

+∫𝑑𝜏

𝑡 − 𝜏

𝑇

2

)

=1

𝜋lim→0(log |𝑡 +

𝑇

2| − log|𝑡 + 휀| + log |𝑡 − 휀| − log |𝑡 −

𝑇

2|) =

1

𝜋log |

𝑡 +𝑇

2

𝑡 −𝑇

2

|

Il segnale ⊓(𝑡

𝑇) e la sua trasformata di Hil-

bert sono mostrati in Fig.E 8.1.

Il segnale analitico associato a ⊓(𝑡

𝑇) vale

quindi:

𝑧(𝑡) =⊓ (𝑡

𝑇) + 𝑗

1

𝜋log |

𝑡 +𝑇

2

𝑡 −𝑇

2

|

la cui rappresentazione nel piano complesso è ri-

portata in Fig.E 8.2.

Esempio 8.2

Determinare la trasformata di Hilbert del se-

gnale 𝑒±𝑗2𝜋𝑓0𝑡.

Poiché si ha:

𝔉[𝑒±𝑗2𝜋𝑓0𝑡] = 𝛿(𝑓 ∓ 𝑓0)

è per la (8.1.7)

𝔉[ℋ[𝑒±𝑗2𝜋𝑓0𝑡]] = −𝑗𝛿(𝑓 ∓ 𝑓0)sgm(𝑓)

Fig.E 8.2

Fig.E 8.1

Page 178: Lezioni di TEORIA DEI SEGNALI.pdf

166 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

da cui antitrasformando:

ℋ[𝑒±𝑗2𝜋𝑓0𝑡] = −𝑗∫ 𝛿(𝑓 ∓ 𝑓0)sgm(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

−∞

= −𝑗sgm(±𝑓0)𝑒±𝑗2𝜋𝑓0𝑡

cioè:

ℋ[𝑒±𝑗2𝜋𝑓0𝑡] = ∓𝑗𝑒±𝑗2𝜋𝑓0𝑡

In particolare si deduce, eguagliando le parti reali e i coefficienti delle

parti immaginarie:

ℋ[cos(2𝜋𝑓0𝑡)] = sin(2𝜋𝑓0𝑡)

ℋ[sin(2𝜋𝑓0𝑡)] = − cos(2𝜋𝑓0𝑡)

Esempio 8.3

Determinare il segnale analitico associato al segnale 𝒔 rappresentabile

mediante la funzione:

𝑠(𝑡) =1

𝑡2 + 𝜏2

Potendosi scrivere: 1

𝑡2 + 𝜏2=𝑗

2𝜏[1

𝑡 + 𝑗𝜏−

1

𝑡 − 𝑗𝜏]

la trasformata di Fourier del segnale 𝒔 vale:

𝑆(𝑓) =𝑗

2𝜏{𝔉 [

1

𝑡 + 𝑗𝜏] − 𝔉 [

1

𝑡 − 𝑗𝜏]}

Ricordando l' Esempio 4.2, applicando la proprietà di simmetria si ottie-

ne:

𝔉 [1

𝛼 + 𝑗2𝜋𝑡] = u(−𝑓)𝑒𝛼𝑓

quindi:

𝔉 [1

𝑡 − 𝑗𝜏] = 𝑗2𝜋𝔉 [

1

2𝜋𝜏 + 𝑗2𝜋𝑡]

= 𝑗2𝜋u(−𝑓)𝑒2𝜋𝜏𝑓

Applicando ora la proprietà della co-

niugazione nel dominio del tempo si ha

poi:

𝔉 [1

𝑡 + 𝑗𝜏] = −𝑗2𝜋 u(𝑓)𝑒−2𝜋𝜏𝑓

Di conseguenza 𝑆(𝑓) diviene:

𝑆(𝑓) =𝑗

2𝜏(−𝑗2𝜋u(𝑓)𝑒−2𝜋𝜏𝑓 − 𝑗2𝜋u(−𝑓)𝑒2𝜋𝜏𝑓) =

𝜋

𝜏𝑒−2𝜋𝜏|𝑓|

Fig.E 8.3

Page 179: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 8 - Caratteristiche e Proprietà dei Segnali - 167

Il segnale analitico 𝑧(𝑡) associato a 𝑠(𝑡) vale dunque:

𝑧(𝑡) = 2∫𝜋

𝜏𝑒−2𝜋𝜏|𝑓|𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

0

=2𝜋

𝜏[𝑒−2𝜋𝑓(𝜏−𝑗𝑡)

−2𝜋(𝑗𝜏𝑡)]0

=1

𝜏(𝜏 − 𝑗𝑡)

o anche:

𝑧(𝑡) =1

𝑡2 + 𝜏2+ 𝑗

𝑡

𝜏(𝑡2 + 𝜏2)

Il suo modulo vale:

𝑟(𝑡) =1

𝜏

1

√𝑡2 + 𝜏2

ed il suo argomento:

𝜗(𝑡) = arctg (𝑡

𝜏)

Nel piano complesso (Re[𝑧], Im[𝑧]) l’estremo del vettore 𝑧(𝑡) descrive il

luogo individuato dall’equazione:

𝜏2(𝑥2 + 𝑦2) = 𝑥

che è una circonferenza di centro 𝐶 ≡ (1

2𝜏2, 0) e raggio 𝑅 =

1

𝜏2 come è indi-

cato nella Fig. E.VII.3.

Componenti del segnale a frequenze positive e nega-8.2 - tive.

Nell’analisi dei segnali reali risulta talvolta utile introdurre le quan-

tità 𝑆+(𝑓) e 𝑆−(𝑓) definite dalle:

𝑆+(𝑓) = 𝑆(𝑓)u(𝑓) (8.2.1)

e

𝑆−(𝑓) = 𝑆(𝑓)u(−𝑓) (8.2.2)

che individuano il contenuto di frequenze positive e negative di un se-

gnale 𝑠(𝑡) il cui spettro è stato denotato con 𝑆(𝑓).

Alle quantità 𝑆+(𝑓) e 𝑆−(𝑓), sopra definite, si possono associare

due segnali complessi 𝑠+(𝑡) e 𝑠−(𝑡) ottenuti per mezzo delle seguenti

antitrasformate:

𝑠+(𝑡) = 𝔉−1[𝑆+(𝑓)]; 𝑠−(𝑡) = 𝔉[𝑆−(𝑓)] (8.2.3)

denominati componenti a frequenze positive e negative del segnale.

Poiché risulta manifestamente:

Page 180: Lezioni di TEORIA DEI SEGNALI.pdf

168 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑆(𝑓) = 𝑆+(𝑓) + 𝑆−(𝑓) (8.2.4)

si ha:

𝑠(𝑡) = 𝑠+(𝑡) + 𝑠−(𝑡) (8.2.5)

Tenendo conto della (8.2.4), la trasformata di Fourier di ��(𝑡) vale:

��(𝑓) = −𝑗sgm(𝑓) ⋅ [𝑆+(𝑓) + 𝑆−(𝑓)] = −𝑗𝑆+(𝑓) + 𝑗𝑆−(𝑓) (8.2.6)

da cui antitrasformando:

��(𝑡) = −𝑗[𝑠+(𝑡) − 𝑠−(𝑡)] (8.2.7)

che permette di esprimere la trasformata di Hilbert di un segnale in ter-

mini delle sue componenti a frequenze positive e negative.

Invertendo le (8.2.5) e (8.2.7) si ottiene infine:

𝑠+(𝑡) =1

2[𝑠(𝑡) + 𝑗��(𝑡)], 𝑠−(𝑡) =

1

2[𝑠(𝑡) − 𝑗��(𝑡)] (8.2.8)

Segnali a banda e durata rigorosamente limitata. 8.3 -

Un segnale 𝑠(𝑡) si dice a banda rigorosamente limitata quando la

sua trasformata di Fourier soddisfa la condizione:

∃ 𝑓′, 𝑓″ (0 ≤ 𝑓′ < 𝑓″ < ∞) | 𝑆(𝑓) = 0 ∀ 𝑓| |𝑓| ∉ [𝑓′, 𝑓″] (8.3.1)

Detti 𝑓1 l'estremo superiore dell'insieme {𝑓′} ed 𝑓2 l'estremo infe-

riore dell'insieme {𝑓″}, la quantità:

𝐵 = 𝑓2 − 𝑓1 (8.3.2)

esprime l’ampiezza di banda del segnale

e le frequenze 𝑓1 e 𝑓2 vengono rispetti-

vamente dette frequenza di taglio infe-

riore e superiore (vedi Fig. 8.2).

Se per un segnale 𝑠(𝑡) a banda

rigorosamente limitata risulta 𝑓1 = 0 il

segnale si dice passabasso, altrimenti si

parla di segnale passabanda.

Un segnale 𝑠(𝑡) si dice a durata rigorosamente limitata quando è

soddisfatta la condizione:

∃ 𝑡′⋀ 𝑡″| 𝑠(𝑡) = 0 ∀ 𝑡 ∉ [𝑡′, 𝑡″] (8.3.3)

Fig. 8.2 – Segnale a banda rigoro-samente limitata

Page 181: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 8 - Caratteristiche e Proprietà dei Segnali - 169

La misura dell'intersezione tra tutti gli intervalli [𝑡′, 𝑡″] che verificano la

(8.3.3) definisce la durata 𝑇 del segnale.

Con riferimento alla Fig. 8.2 si può osservare che, se 𝑆(𝑓) denota

la trasformata di Fourier di un segnale a banda rigorosamente limitata, si

può scrivere:

𝑆(𝑓) = 𝑆(𝑓)⊓ (𝑓 − 𝑓0𝐵

) + 𝑆(𝑓)⊓ (𝑓 + 𝑓0𝐵

) (8.3.4)

avendo denotato con 𝑓0 il valore della frequenza di centro banda:

𝑓0 =𝑓1 + 𝑓22

(8.3.5)

Antitrasformando la (8.3.4), essendo:

𝔉−1 [⊓ (𝑓 ± 𝑓0𝐵

)] = 𝐵sinc(𝐵𝑡)𝑒∓𝑗2𝜋𝑓0𝑡 (8.3.6)

si ottiene facilmente l'identità:

𝑠(𝑡) = 𝑠(𝑡) ∗ 𝐵(sinc(𝐵𝑡)𝑒𝑗2𝜋𝑓0𝑡 + sinc(𝐵𝑡)𝑒−𝑗2𝜋𝑓0𝑡) (8.3.7)

dalla quale si deduce che il segnale 𝑠(𝑡) non può avere durata limitata

giacché esso si può esprimere mediante una convoluzione in cui uno dei

due operandi ha supporto non limitato.

Di converso, se 𝑠(𝑡) è a durata rigorosamente limitata, la sua tra-

sformata si estenderà su tutto l’asse delle frequenze. In altre parole non

esistono segnali che siano simultaneamente a banda e a durata rigoro-

samente limitate.

Proprietà dei segnali a banda rigorosamente limitata. 8.4 - Segnali passabasso

Se 𝑠(𝑡) è un segnale passabasso, è anche rappresentabile mediante

una funzione continua e derivabile infinite volte (vedi §. 5.7 - ). Si ha:

𝑠(𝑡) = ∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓𝑓𝑚

−𝑓𝑚

(8.4.1)

dove 𝑓𝑚 denota la frequenza di taglio.

Dalla precedente discende:

|𝑠(𝑡)| ≤ ∫ |𝑆(𝑓)|𝑑𝑓𝑓𝑚

−𝑓𝑚

< ∞ (8.4.2)

Page 182: Lezioni di TEORIA DEI SEGNALI.pdf

170 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Derivando la (8.4.1)rispetto a t si ottiene:

𝑑𝑠(𝑡)

𝑑𝑡= ∫ 𝑗2𝜋𝑓 ⋅ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓

𝑓𝑚

−𝑓𝑚

(8.4.3)

da cui:

|𝑑𝑠(𝑡)

𝑑𝑡| ≤ ∫ |2𝜋𝑓| ⋅ |𝑆(𝑓)|𝑑𝑓

𝑓𝑚

−𝑓𝑚

≤ 2𝜋𝑓𝑚∫ |𝑆(𝑓)|𝑑𝑓𝑓𝑚

−𝑓𝑚

(8.4.4)

Procedendo analogamente per la derivata 𝑛-esima si ottiene la se-

guente limitazione:

|𝑑𝑛𝑠(𝑡)

𝑑𝑡𝑛| ≤ (2𝜋𝑓𝑚)

𝑛∫ |𝑆(𝑓)|𝑑𝑓𝑓𝑚

−𝑓𝑚

(8.4.5)

cioè: il modulo di un segnale passabasso è limitato, come pure i moduli

di tutte le sue derivate. Tali limiti dipendono dall’ampiezza 𝑓𝑚 della ban-

da del segnale. Un segnale passabasso, pertanto, ha un andamento rego-

lare nel tempo con variazioni tanto più lente quanto più piccola è la sua

frequenza di taglio.

Segnali passabanda

Con riferimento alla Fig. 8.2 se 𝑠(𝑡) è reale, si può scrivere:

𝑠(𝑡) = ∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓−𝑓1

−𝑓2

+∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓𝑓2

𝑓1

= 2Re [∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓𝑓2

𝑓1

]

(8.4.6)

che con la posizione 𝑓 = 𝑓0 + 𝜑 diventa:

𝑠(𝑡) = 2Re [𝑒𝑗2𝜋𝑓0𝑡∫ 𝑆(𝑓0 + 𝜑)𝑒𝑗2𝜋𝜑𝑡𝑑𝜑

𝐵

2

−𝐵

2

] (8.4.7)

Definendo il segnale:

𝑤(𝑡) = 2∫ 𝑆(𝑓0 + 𝜑)𝑒𝑗2𝜋𝜑𝑡𝑑𝜑

𝐵

2

−𝐵

2

(8.4.8)

la (8.4.7) si può riscrivere nella forma:

𝑠(𝑡) = Re[𝑤(𝑡)𝑒𝑗2𝜋𝑓0𝑡] (8.4.9)

Page 183: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 8 - Caratteristiche e Proprietà dei Segnali - 171

Il segnale 𝑤(𝑡), definito dalla (8.4.8), è in generale complesso a

meno che la 𝑆(𝑓) non soddisfi la condizione di simmetria:

𝑆(𝑓0 − 𝜑) = 𝑆∗(𝑓0 + 𝜑) (8.4.10)

Indicando con 𝑟(𝑡) e con 𝜗(𝑡) il modulo e l’argomento di 𝑤(𝑡):

𝑤(𝑡) = 𝑟(𝑡)𝑒𝑗𝜗(𝑡) (8.4.11)

dalla (8.4.9) discende:

𝑠(𝑡) = 𝑟(𝑡) cos(2𝜋𝑓0𝑡 + 𝜗(𝑡))

= 𝑠𝑓(𝑡) cos(2𝜋𝑓0𝑡) − 𝑠𝑞(𝑡) sin(2𝜋𝑓0𝑡) (8.4.12)

laddove le quantità 𝑠𝑓(𝑡) e 𝑠𝑞(𝑡) definite dalle:

𝑎) 𝑠𝑓(𝑡) = 𝑟(𝑡) cos 𝜗(𝑡) = 2Re [∫ 𝑆(𝑓0 + 𝜑)𝑒𝑗2𝜋𝜑𝑡𝑑𝜑

𝐵

2

−𝐵

2

]

𝑏) 𝑠𝑞(𝑡) = 𝑟(𝑡) sin 𝜗(𝑡) = 2Im [∫ 𝑆(𝑓0 + 𝜑)𝑒𝑗2𝜋𝜑𝑡𝑑𝜑

𝐵

2

−𝐵

2

]

(8.4.13)

prendono il nome rispettivamente di componenti in fase e in quadratura

del segnale.

Le (8.4.9) e

(8.4.13) suggerisco-

no una particolare

rappresentazione

grafica di 𝑠(𝑡). In-

fatti se il vettore 𝑂𝑃

individua nel piano

complesso di Fig.

8.3 la quantità 𝑤(𝑡) a

un istante generico

𝑡, il valore 𝑠(𝑡) del

segnale si potrà ottenere dalla proiezione sull’asse reale del vettore 𝑂𝑃′

ottenuto ruotando 𝑂𝑃 di un angolo pari a 2𝜋𝑓0𝑡. Il segnale 𝑠(𝑡) è noto se

si conosce la posizione del vettore 𝑂𝑃 al variare di 𝑡. Ciò significa che

𝑠(𝑡) può essere rappresentato dal luogo 𝛾 dell'estremo di tale vettore. Si

perviene così alla naturale estensione dell’usuale rappresentazione di una

grandezza sinusoidale mediante un vettore rotante. In quest’ultimo caso,

Fig. 8.3 - Rappresentazione vettoriale di un segnale passa-banda

Page 184: Lezioni di TEORIA DEI SEGNALI.pdf

172 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

il vettore rappresentativo del segnale non varia nel tempo cosicché la

curva 𝛾 si riduce a un punto.

Le quantità 𝑟(𝑡) e 𝜗(𝑡) prendono rispettivamente il nome di invi-

luppo e fase istantanei del segnale; si definisce frequenza istantanea la

quantità 𝑓(𝑡):

𝑓(𝑡) = 𝑓0 +1

2𝜋

𝑑𝜗(𝑡)

𝑑𝑡 (8.4.14)

Dalla (8.4.12) si deduce che un segnale passabanda assume la

forma di un’oscillazione modulata in ampiezza e fase; le quantità 𝑠𝑓(𝑡) e

𝑠𝑞(𝑡) rappresentano due segnali i cui spettri, in virtù delle (8.4.13), sono

contenuti nell’intervallo (−𝐵

2,𝐵

2). Tali funzioni pertanto corrispondono

a segnali di tipo passabasso, e le loro variazioni nel tempo risultano tan-

to più lente quanto più stretta è la banda 𝐵 del segnale.

Prendendo le trasformate di Fourier della (8.4.9), si ottiene:

𝑆(𝑓) = ∫ Re[𝑤(𝑡)𝑒𝑗2𝜋𝑓0𝑡]𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

=1

2∫ [𝑤(𝑡)𝑒𝑗2𝜋𝑓0𝑡 + 𝑤∗(𝑡)𝑒−𝑗2𝜋𝑓0𝑡]𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡∞

−∞

=1

2∫ 𝑤(𝑡)𝑒−𝑗2𝜋(𝑓−𝑓0)𝑡𝑑𝑡∞

−∞

+1

2(∫ 𝑤(𝑡)𝑒𝑗2𝜋(𝑓+𝑓0)𝑡𝑑𝑡

−∞

)

(8.4.15)

che, detta 𝑊(𝑓) la trasformata di 𝑤(𝑡), si può scrivere nella forma:

𝑆(𝑓) =1

2𝑊(𝑓 − 𝑓0) +

1

2𝑊∗(−𝑓 − 𝑓0) (8.4.16)

Esempio 8.4

Detto 𝑓0 il valore della frequen-

za di centro banda, il segnale 𝑠(𝑡),

il cui spettro 𝑆(𝑓) è rappresentato

in Fig. E.VII.4, può ottenersi sulla

base della (8.4.13) determinando le

quantità 𝑠𝑓(𝑡) e 𝑠𝑞(𝑡). A tal fine si

osservi che lo spettro 𝑆(𝑓0 + 𝜑)

limitatamente all'intervallo (−𝐵

2,𝐵

2) si presenta come è mostrato in Fig.

E.VII.5, la cui antitrasformata risulta:

Fig.E 8.4

Page 185: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 8 - Caratteristiche e Proprietà dei Segnali - 173

𝔉−1[𝑆(𝑓0 +𝜑)] = (1 − cos(𝜋𝐵𝑡)

2𝐵𝜋2𝑡2+sin(𝜋𝐵𝑡)

2𝜋𝑡) + 𝑗 (

sin(𝜋𝐵𝑡)

2𝐵𝜋2𝑡2−cos(𝜋𝐵𝑡)

2𝜋𝑡)

Le componenti in fase e in quadratura allora sono:

{𝑠𝑓(𝑡) =

1 − cos(𝜋𝐵𝑡)

2𝐵𝜋2𝑡2+sin(𝜋𝐵𝑡)

2𝜋𝑡;

𝑠𝑞(𝑡) =sin(𝜋𝐵𝑡)

2𝐵𝜋2𝑡2−cos(𝜋𝐵𝑡)

2𝜋𝑡;

Il segnale 𝑠(𝑡) vale allora:

𝑠(𝑡)

= (1 − cos(𝜋𝐵𝑡)

2𝐵𝜋2𝑡2+sin(𝜋𝐵𝑡)

2𝜋𝑡) cos(2𝜋𝑓0𝑡)

− (sin(𝜋𝐵𝑡)

2𝐵𝜋2𝑡2−cos(𝜋𝐵𝑡)

2𝜋𝑡) sin(2𝜋𝑓0𝑡)

Banda e durata convenzionali. 8.5 -

Se 𝑠(𝑡) non è a banda o durata rigorosamente limitata, pur essen-

do a energia finita, può essere in certi casi conveniente attribuire al se-

gnale una banda o durata convenzionali.

In quel che segue 𝑠(𝑡) si suppone reale passabasso; tuttavia le

considerazioni svolte si possono facilmente estendere ai segnali reali

passabanda.

Banda e durata quadratica o efficace

Si definisce banda quadratica 𝐵𝑞 la quantità:

𝐵𝑞 = (1

𝐸∫ 𝑓2|𝑆(𝑓)|2𝑑𝑓∞

−∞

)

1

2

(8.5.1)

dove 𝐸 è l'energia specifica del segnale.

Si noti che la banda quadratica 𝐵𝑞 di un segnale dà una misura

della dispersione dei valori di |𝑆(𝑓)|2 attorno all'asse delle frequenze.

In maniera simile si può definire una durata quadratica 𝑇𝑞. Detta ��

l’ascissa baricentrica di |𝑠(𝑡)|:

�� =1

𝐸∫ 𝑡|𝑠(𝑡)|2𝑑𝑡∞

−∞

(8.5.2)

la quantità 𝑇𝑞 vale:

Fig.E 8.5

Page 186: Lezioni di TEORIA DEI SEGNALI.pdf

174 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑇𝑞 = (1

𝐸∫ (𝑡 − ��)2|𝑠(𝑡)|2𝑑𝑡∞

−∞

)

1

2

(8.5.3)

che, riferendo l'origine dei tempi a ��, assumerebbe la forma più sempli-

ce:

𝑇𝑞 = (1

𝐸∫ 𝑡2|𝑠(𝑡)|2𝑑𝑡∞

−∞

)

1

2

(8.5.4)

analoga alla (8.5.1).

Banda e durata sulla base dell’energia

La durata convenzionale di un segnale è definita dall'ampiezza

dell'intervallo centrato sull'ascissa baricentrica nel quale è contenuta una

prefissata aliquota 휀𝑇2 ≤ 1 dell'energia totale del segnale. Detta durata

può essere calcolata risolvendo l'equazione nell'incognita 𝜏:

휀𝑇2 =

1

𝐸∫ |𝑠(𝑡 − ��)|2𝑑𝑡

𝜏

2

−𝜏

2

(8.5.5)

È’ ovvio che la quantità 𝜏 è una funzione non decrescente di 휀𝑇2 .

Analogamente si introduce una banda equivalente che si ottiene

risolvendo l'equazione nell'incognita 𝜎:

휀𝐵2 =

1

𝐸∫ |𝑆(𝑓)|2𝑑𝑓𝜎

−𝜎

(8.5.6)

dove 휀𝐵2 è una prefissata quantità non superiore a 1.

Esempio 8.5

Si determino la durata e banda convenzionali del segnale:

𝑠(𝑡) = u(𝑡)𝑒−𝑎𝑡(𝑎 > 0)

L’energia specifica del segnale vale:

𝐸 = ∫ 𝑒−2𝑎𝑡𝑑𝑡∞

0

=1

2𝑎

a) Durata quadratica:

L’ascissa baricentrica vale:

�� = 2𝑎∫ 𝑡𝑒−2𝑎𝑡𝑑𝑡∞

0

=2

𝑎

quindi la durata quadratica è ottenuta dalla:

Page 187: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 8 - Caratteristiche e Proprietà dei Segnali - 175

𝑇𝑞2 = 2𝑎∫ (𝑡 −

2

𝑎)2

𝑒−2𝑎𝑡𝑑𝑡

0

=5

2𝑎2

Risulta quindi:

𝑇𝑞 =1

𝑎√5

2

b) Durata sulla base dell’energia:

Riferendo il segnale alla sua ascissa baricentrica �� si ottiene:

𝑥(𝑡) = 𝑠(𝑡 − ��) = u(𝑡 −2

𝑎)𝑒−𝑎(𝑡−

2

𝑎)

e quindi la durata si deduce dall’equazione:

휀𝑇2

2𝑎= ∫ u(𝑡 −

2

𝑎) 𝑒−2𝑎(𝑡−

2

𝑎)𝑑𝑡

𝜏

2

−𝜏

2

=1 − 𝑒4−𝑎𝜏

2𝑎

da cui:

𝜏 =1

𝑎[4 − log(1 − 휀𝑇

2)]

Poiché la trasformata del segnale vale: S(f ) a j2f 1

risulta:

a) Banda quadratica:

Si ha:

𝐵𝑞2 =

1

2𝑎∫

𝑓2𝑑𝑓

𝑎2 + (2𝜋𝑓)2

−∞

= ∞

b) Banda sulla base dell’energia:

La banda si determina dalla condizione:

휀𝐵2

2𝑎= ∫

𝑑𝑓

𝑎2 + (2𝜋𝑓)2

𝜎

−𝜎

=arctg(𝜎)

𝜋𝑎

dalla quale si deduce:

𝜎 = tan (𝜋

2휀𝐵2)

Page 188: Lezioni di TEORIA DEI SEGNALI.pdf
Page 189: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9

IL CAMPIONAMENTO DEI SEGNALI

Il teorema del campionamento. 9.1 -

Un'importante caratteristica di un segnale a banda limitata è quel-

la di potere essere ricostruito a partire dalla conoscenza dei valori, cam-

pioni, assunti da esso in corrispondenza di un'opportuna sequenza di

istanti.

Quanto detto, in altri termini, significa che è possibile stabilire

una corrispondenza biunivoca tra funzioni del tempo rappresentative di

segnali a banda limitata e sequenze numeriche.

In linea di principio

per poter ricostruire il se-

gnale non è necessario che

i campioni vengano prele-

vati con cadenza regolare.

Tuttavia, poiché in genere

si adottano campionatori

uniformi, in quel che segue

si considererà soltanto il

campionamento uniforme;

cioè si assumerà che l'in-

tervallo di tempo 𝑇 =

𝑡𝑖+1 − 𝑡𝑖 che intercorre tra

due campioni consecutivi,

detto periodo di campio-

namento, sia costante.

Dato un segnale 𝑠(𝑡) reale rigorosamente passa basso, cioè tale

che detta 𝑆(𝑓) la sua trasformata di Fourier (vedi Fig. 9.1a)), risulti:

𝑆(𝑓) = 𝑆(𝑓)⊓ (𝑓

2𝑓𝑚), ∀𝑓 ∈ ℝ (9.1.1)

si consideri la funzione 𝑆𝑐(𝑓), ottenuta ripetendo periodicamente lo

spettro 𝑆(𝑓) con periodicità 𝑓𝑐 (v. Fig. 9.1,b):

Fig. 9.1 - a) Spettro di un segnale passabasso; b) sua ripetizione periodica.

Page 190: Lezioni di TEORIA DEI SEGNALI.pdf

178 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑆𝑐(𝑓) = ∑ 𝑆(𝑓 − 𝑛𝑓𝑐)

𝑛=−∞

(9.1.2)

È evidente che se si sceglie

𝑓𝑐 ≥ 2𝑓𝑚 (9.1.3)

si ha:

𝑆(𝑓) = 𝑆𝑐(𝑓)⊓ (𝑓

𝑓𝑐) (9.1.4)

In questo caso cioè la trasformata di Fourier del segnale e la funzione

𝑆𝑐(𝑓) coincidono nell'intervallo (−𝑓𝑐

2,𝑓𝑐

2).

Poiché 𝑆𝑐(𝑓) è periodica, può essere sviluppata in serie di Fourier:

𝑆𝑐(𝑓) = ∑ 𝐶𝑛𝑒𝑗2𝜋𝑛

𝑓

𝑓𝑐

𝑛=−∞

(9.1.5)

dove:

𝐶𝑛 =1

𝑓𝑐∫ 𝑆(𝑓)𝑒

−𝑗2𝜋𝑛𝑓

𝑓𝑐𝑑𝑓

𝑓𝑐2

−𝑓𝑐2

=1

𝑓𝑐𝑠 (−

𝑛

𝑓𝑐) (9.1.6)

Sostituendo la (9.1.5) e la (9.1.6) nella (9.1.4) si ottiene la seguente

espressione per 𝑆(𝑓):

𝑆(𝑓) =1

𝑓𝑐⊓ (

𝑓

𝑓𝑐) ∑ 𝑠 (−

𝑛

𝑓𝑐) 𝑒

𝑗2𝜋𝑛𝑓

𝑓𝑐

𝑛=−∞

=1

𝑓𝑐⊓ (

𝑓

𝑓𝑐) ∑ 𝑠 (

𝑛

𝑓𝑐) 𝑒

−𝑗2𝜋𝑛𝑓

𝑓𝑐

𝑛=−∞

(9.1.7)

dove nell'ultima sommatoria si è mutato 𝑛 in −𝑛.

Tenendo infine presente che 𝔉−1 [⊓ (𝑓

𝑓𝑐)] = 𝑓𝑐sinc(𝑓𝑐𝑡) si ha:

𝑠(𝑡) = ∑ 𝑠 (𝑛

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)]

𝑛=−∞

(9.1.8)

La precedente costituisce l'espressione formale del teorema del

campionamento. Da essa risulta infatti evidente che è possibile ricostrui-

Page 191: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 179

re un segnale passabasso a partire dalla sequenza {𝑠 (𝑛

𝑓𝑐)}𝑛=−∞

dei suoi

campioni.

Si osservi che, in base alla (9.1.8), la ricostruzione del segnale vie-

ne effettuata sommando una serie di funzioni del tipo sinc(𝑓𝑐𝑡) oppor-

tunamente ritardate e pesate per mezzo dei campioni di 𝑠(𝑡) come indi-

cato in Fig. 9.2.

Si sottolinea che la (9.1.8) vale soltanto se la (9.1.3) è verificata. La

minima frequenza di campionamento che soddisfa tale limitazione è det-

ta frequenza di Nyquist, e il corrispondente massimo periodo di campio-

namento periodo di Nyquist. Essi valgono rispettivamente:

𝑓𝑐 = 2𝑓𝑚; 𝑇𝑐 =1

2𝑓𝑚; (9.1.9)

Il sottospazio dei segnali passabasso. 9.2 -

Dalla (9.1.8) si deduce che l'insieme di funzioni normalizzate:

𝑢𝑛(𝑡) = √𝑓𝑐sinc [𝑓𝑐 (𝑡 −𝑛

𝑓𝑐)] (9.2.1)

è completo rispetto all'insieme dei segnali passabasso ad energia finita

con frequenza di taglio non superiore ad 𝑓𝑐

2. Inoltre le (9.2.1) sono orto-

gonali. Infatti detta 𝑈𝑛(𝑓) la trasformata di Fourier di 𝑢𝑛(𝑡) si ha:

Fig. 9.2 - Ricostruzione di un segnale a partire dai suoi campioni

Page 192: Lezioni di TEORIA DEI SEGNALI.pdf

180 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑈𝑛(𝑓) = √𝑓𝑐𝑒−𝑗2𝜋𝑛

𝑓

𝑓𝑐𝔉[sinc(𝑓𝑐𝑡)] =1

√𝑓𝑐⊓ (

𝑓

𝑓𝑐) 𝑒

−𝑗2𝜋𝑛𝑓

𝑓𝑐 (9.2.2)

Applicando il teorema di Parseval si ottiene:

∫ 𝑢𝑛(𝑡)𝑢𝑚(𝑡)𝑑𝑡∞

−∞

= ∫ 𝑈𝑛(𝑓)𝑈𝑚∗ (𝑓)𝑑𝑓

−∞

=1

𝑓𝑐∫ 𝑒

−𝑗2𝜋(𝑛−𝑚)𝑓

𝑓𝑐 𝑑𝑓

𝑓𝑐2

−𝑓𝑐2

= sinc(𝑚-𝑛)

(9.2.3)

In termini delle funzioni 𝑢𝑛(𝑡), la (9.1.8) si traduce nella:

𝑠(𝑡) = ∑ 𝛼𝑛𝑢𝑛(𝑡)

𝑛=−∞

(9.2.4)

dove:

𝛼𝑛 =1

√𝑓𝑐𝑠 (𝑛

𝑓𝑐)

(9.2.5)

Si noti che l'ortogonali-

tà delle 𝑢𝑛(𝑡) implica che la

famiglia di dette funzioni co-

stituisce un set completo per

lo spazio dei segnali passa-

basso di banda non superiore

a 𝑓𝑐

2, e conseguentemente im-

plica anche che la sequenza di

coefficienti definiti dalla

(9.2.5) è l'unica che consente

la ricostruzione del generico

elemento di detto spazio per

mezzo della base in questio-

ne.

È evidente che se 𝑓𝑐 < 2𝑓𝑚, 𝑆𝑐(𝑓) non coincide con 𝑆(𝑓) nell'in-

tervallo (−𝑓𝑚, 𝑓𝑚) del segnale 𝑠(𝑡) (vedi Fig. 9.3). La sua ricostruzione

non è effettuabile mediante la (9.1.8).

Fig. 9.3 – Campionamento con 𝑓𝑐 < 2𝑓𝑚

Page 193: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 181

D'altra parte, se la frequenza di campionamento è superiore a

quella di Nyquist, cioè se risulta 𝑓𝑐 > 2𝑓𝑚, ci si convince che, in alterna-

tiva alla (9.1.7), 𝑆(𝑓) può anche essere ricostruito a partire dalla:

𝑆(𝑓) = ⊓ (𝑓

2𝑓𝑚) 𝑆𝑐(𝑓) =

1

𝑓𝑐⊓ (

𝑓

2𝑓𝑚) ∑ 𝑠 (

𝑛

𝑓𝑐) 𝑒

−𝑗2𝜋𝑛𝑓

𝑓𝑐

𝑛=−∞

(9.2.6)

dalla quale si perviene alla seguente formula di ricostruzione:

𝑠(𝑡) =2𝑓𝑚𝑓𝑐

∑ 𝑠(𝑛

𝑓𝑐) sinc [2𝑓𝑚 (𝑡 −

𝑛

𝑓𝑐)]

𝑛=−∞

(9.2.7)

che analogamente alla (9.2.4) può essere scritta nella forma:

con

𝑣𝑛(𝑡) = √2𝑓𝑚sinc [2𝑓𝑚 (𝑡 −𝑛

𝑓𝑐)] (9.2.8)

e

𝛽𝑛 =√2𝑓𝑚𝑓𝑐

𝑠 (𝑛

𝑓𝑐) (9.2.9)

Tuttavia in questo caso, la (9.2.8) individua una famiglia di fun-

zioni normalizzate che non sono mutuamente ortogonali. Si ha infatti:

∫ 𝑢𝑛(𝑡)𝑢𝑚(𝑡)𝑑𝑡∞

−∞

=1

2𝑓𝑚∫ 𝑒

−𝑗2𝜋(𝑛−𝑚)𝑓

𝑓𝑐𝑑𝑓𝑓𝑚

−𝑓𝑚

= sinc [2𝑓𝑚𝑓𝑐(𝑛 − 𝑚)]

(9.2.10)

Si consideri una generica combinazione lineare delle {𝑣𝑛(𝑡)}:

𝜑(𝑡) = ∑ 𝛾𝑛𝑣𝑛(𝑡)

𝑛=−∞

(9.2.11)

la cui trasformata vale:

𝛷(𝑓) = ∑ 𝛾𝑛𝑉𝑛(𝑓)

𝑛=−∞

=1

√2𝑓𝑚⊓ (

𝑓

2𝑓𝑚) ∑ 𝛾𝑛𝑒

−𝑗2𝜋𝑛𝑓

𝑓𝑐

𝑛=−∞

(9.2.12)

Si osservi che la sommatoria ∑ 𝛾𝑛𝑒−𝑗2𝜋𝑛

𝑓

𝑓𝑐∞𝑛=−∞ individua una funzione

periodica di periodo 𝑓𝑐. Scegliendo opportunamente la sequenza di coef-

Page 194: Lezioni di TEORIA DEI SEGNALI.pdf

182 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

ficienti 𝛾𝑛 è possibile generare una funzione nulla nell'intervallo

(−𝑓𝑚, 𝑓𝑚) e diversa da zero nel suo complementare rispetto all'intervallo

(−𝑓𝑐

2,𝑓𝑐

2). Sostituendo una tale sequenza nella (9.2.12) si ottiene, in virtù

della presenza della funzione ⊓ (𝑓

2𝑓𝑚), una 𝛷(𝑓) e quindi una 𝜑(𝑡) nulla

in corrispondenza di una sequenza di coefficienti non identicamente

nulla. Pertanto le funzioni 𝑣𝑛(𝑡), pur generando lo spazio dei segnali

passabasso di banda 𝑓𝑚, non sono tra loro linearmente indipendenti,

quindi non ne costituiscono una base.

Campionamento naturale. 9.3 -

La ripetizione periodica del segnale 𝑆(𝑓) con periodicità 𝑓𝑐, defi-

nita dalla (9.1.2) corrisponde nel dominio del tempo al segnale:

𝑠𝑐(𝑡) = ∑ 𝔉−1[𝑆(𝑓 − 𝑛𝑓𝑐)] = 𝑠(𝑡) ∑ 𝑒𝑗2𝜋𝑛𝑓𝑐𝑡∞

𝑛=−∞

𝑛=−∞

(9.3.1)

Il segnale campionato può quindi essere ottenuto com’è schematizzato

in Fig. 9.4, cioè dal prodotto di 𝑠(𝑡) per la fun-

zione:

𝑣0(𝑡) = ∑ 𝑒𝑗2𝜋𝑛𝑓𝑐𝑡∞

𝑛=−∞

(9.3.2)

detta funzione campionatrice.

La (9.3.2), utilizzando la formula di Pois-

son (5.5.8), può essere espressa nella

𝑣0(𝑡) = 𝑇𝑐 ∑ 𝛿(𝑡 − 𝑛𝑇𝑐)

𝑛=−∞

(9.3.3)

Il campionatore del tipo mostrato in Fig. 9.4 non è quindi fisica-

mente realizzabile a causa della presenza della delta di Dirac.

Si può pensare di approssimare la funzione campionatrice (9.3.3)

con un treno d’impulsi che sia la ripetizione periodica con passo 𝑇𝑐 di un

impulso 𝑝(𝑡) di durata 𝑇 < 𝑇𝑐 e trasformata di Fourier 𝑃(𝑓). cioè assu-

mendo che 𝑣0(𝑡) valga:

𝑣0(𝑡) = ∑ 𝑝(𝑡 − 𝑛𝑇𝑐𝑇

)

𝑛=−∞

(9.3.4)

Fig. 9.4 - Campionatore

Page 195: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 183

con 𝑇 < 𝑇𝑐. Il segnale campionato, in questo caso, si presenta (vedi Fig.

9.5) nella forma:

𝑠𝑐(𝑡) = 𝑠(𝑡) ⋅ 𝑣0(𝑡) = 𝑠(𝑡) ∑ 𝑝(𝑡 − 𝑛𝑇𝑐𝑇

)

𝑛=−∞

(9.3.5)

e si parla di campionamento naturale.

La trasformata di 𝑠𝑐(𝑡) si può calcolare tramite il teorema della

convoluzione nel dominio della frequenza ottenendo:

𝑆𝑐(𝑓) = 𝑆(𝑓) ∗ 𝑉0(𝑓) (9.3.6)

dove:

𝑉0(𝑓) = 𝔉[𝑣0(𝑡)] = 𝔉 [ ∑ 𝑉0𝑛𝑒𝑗2𝜋𝑛

𝑡

𝑇𝑐

𝑛=−∞

]

= ∑ 𝑉0𝑛𝛿(𝑓 − 𝑛𝑓𝑐)

𝑛=−∞

(9.3.7)

in cui

𝑉0𝑛 =1

𝑇𝑐∫ 𝑝(𝑡)𝑒−𝑗2𝜋𝑛𝑓𝑐𝑡𝑑𝑡

𝑇

2

−𝑇

2

=𝑃(𝑛𝑓𝑐𝑇)

𝑇𝑐 (9.3.8)

Fig. 9.5 - Campionamento naturale.

Page 196: Lezioni di TEORIA DEI SEGNALI.pdf

184 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Si ha quindi:

𝑆𝑐(𝑓) = ∑ 𝑉0𝑛∫ 𝑆(𝜑)𝛿(𝑓 − 𝜑 − 𝑛𝑓𝑐)𝑑𝜑∞

−∞

𝑛=−∞

= ∑ 𝑉0𝑛𝑆(𝑓 − 𝑛𝑓𝑐) =1

𝑇𝑐∑ 𝑃(𝑛𝑓𝑐𝑇)𝑆(𝑓 − 𝑛𝑓𝑐)

𝑛=−∞

𝑛=−∞

(9.3.9)

La (9.3.9) mostra che nel campionamento naturale l’ennesima ri-

petizione dello spet-

tro risulta moltiplica-

ta per il fattore 𝑃(𝑛𝑓𝑐𝑇)

𝑇𝑐. Pertanto

nell'intervallo

(−𝑓𝑐

2,𝑓𝑐

2), la forma

dello spettro rimane

immutata, è quindi

evidente che il segna-

le può essere ancora

ricostruito. Nel caso

in cui 𝑝(𝑡) =⊓ (𝑡

𝑇) si ha 𝑃(𝑓) = 𝑇sinc(𝑓𝑇) da cui sostituendo nella (9.3.9) si

ottiene:

𝑆𝑐(𝑓) =𝑇

𝑇𝑐∑ sinc(𝑛𝑓𝑐𝑇)𝑆(𝑓 − 𝑛𝑓𝑐)

𝑛=−∞

(9.3.10)

In questo caso lo spettro di ampiezza |𝑆𝑐(𝑓)| del segnale 𝑠𝑐(𝑡) si presen-

ta come è mostrato in Fig. 9.6. Tornando alla Fig. 9.5 possiamo osserva-

re che nel campionamento naturale il generico impulso 𝑝(𝑡 − 𝑛𝑇𝑐) viene

in realtà distorto dal segnale quindi non possiamo parlare di vero e pro-

prio campionamento nel senso che non potremmo ricostruire il segnale

a partire dalla sola conoscenza dei valori che esso assume in una se-

quenza di istanti, tale campionamento potrebbe al più essere utilizzato

per una multiplazione di più segnali su uno stesso mezzo fisico (multi-

plazione a divisione di tempo), in quanto sarebbe possibile inserire tra

gli impulsi associati ad un segnale quelli relativi ad altri.

Fig. 9.6 - Spettro del segnale campionato: campionamento

ideale, campionamento naturale.

Page 197: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 185

Campionamento istantaneo. 9.4 -

Un'altra modalità di campionamento consiste nel cosiddetto cam-

pionamento istantaneo (vedi Fig. 9.7). In questo caso il segnale campionato

vale:

𝑠𝑐(𝑡) = ∑ 𝑠(𝑛𝑇𝑐)𝑝 (𝑡 − 𝑛𝑇𝑐𝑇

)

𝑛=−∞

(9.4.1)

Nel campiona-

mento istantaneo gli

impulsi che costitui-

scono 𝑠𝑐(𝑡) mantengo-

no cioè la loro forma

mentre le loro ampiez-

ze sono proporzionali

ai campioni 𝑠(𝑛𝑇𝑐) del

segnale.

Per valutare lo

spettro del segnale

espresso dalla (9.4.1) è

conveniente scrivere 𝑝 (𝑡−𝑛𝑇𝑐

𝑇) mediante la seguente convoluzione:

𝑝 (𝑡 − 𝑛𝑇𝑐𝑇

) = 𝑝 (𝑡

𝑇) ∗ 𝛿(𝑡 − 𝑛𝑇𝑐) (9.4.2)

Di conseguenza:

𝑠𝑐(𝑡) = 𝑝 (𝑡

𝑇) ∗ ( ∑ 𝑠(𝑛𝑇𝑐)𝛿(𝑡 − 𝑛𝑇𝑐)

𝑛=−∞

)

= 𝑝 (𝑡

𝑇) ∗ (𝑠(𝑡) ∑ 𝛿(𝑡 − 𝑛𝑇𝑐)

𝑛=−∞

)

(9.4.3)

Nella precedente abbiamo ricordato che:

𝑠(𝑛𝑇𝑐)𝛿(𝑡 − 𝑛𝑇𝑐) = 𝑠(𝑡)𝛿(𝑡 − 𝑛𝑇𝑐) (9.4.4)

e utilizzando la (5.8.5) per la trasformata di 𝑠𝑐(𝑡), si ottiene:

Fig. 9.7 Campionamento Istantaneo

Page 198: Lezioni di TEORIA DEI SEGNALI.pdf

186 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑆𝑐(𝑓) = 𝑃(𝑓)𝔉 [𝑠(𝑡) ∑ 𝛿(𝑡 − 𝑛𝑇𝑐)

𝑛=−∞

]

= 𝑃(𝑓) (𝑆(𝑓) ∗1

𝑇𝑐∑ 𝛿(𝑓 − 𝑛𝑓𝑐)

𝑛=−∞

)

=𝑃(𝑓)

𝑇𝑐∑ 𝑆(𝑓 − 𝑛𝑓𝑐)

𝑛=−∞

(9.4.5)

Nel caso in cui 𝑝(𝑡) =⊓ (𝑡

𝑇) avremmo:

𝑆𝑐(𝑓) = 𝑇sinc(𝑓𝑇)𝔉 [𝑠(𝑡) ∑ 𝛿(𝑡 − 𝑛𝑇𝑐)

𝑛=−∞

]

= 𝑇sinc(𝑓𝑇) (𝑆(𝑓) ∗1

𝑇𝑐∑ 𝛿(𝑓 − 𝑛𝑓𝑐)

𝑛=−∞

)

=𝑇

𝑇𝑐sinc(𝑓𝑇) ∑ 𝑆(𝑓 − 𝑛𝑓𝑐)

𝑛=−∞

(9.4.6)

In questo caso lo spettro del segnale campionato è mostrato in blu in

Fig. 9.8, da cui si rileva che, a causa del fattore 𝑇

𝑇𝑐sinc(𝑓𝑇) tale spettro ha

una forma diversa da quello del segnale nella porzione contenuta nell'in-

Fig. 9.8 - Campionamento naturale, campionamento istantaneo.

Page 199: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 187

tervallo (−𝑓𝑐

2,𝑓𝑐

2).

Di conseguenza un filtro passabasso non è in grado di ricostruire

il segnale. Tuttavia, poiché il legame tra lo spettro del segnale campiona-

to e quello di 𝑠(𝑡) è noto, è possibile eliminare la distorsione introdotta

dal campionatore.

Si osservi inoltre che, se 𝑇 << 𝑇𝑐 , la distorsione introdotta diven-

ta trascurabile in quanto il fattore sinc(𝑓𝑇) varia poco nella banda di in-

teresse. Tale riduzione tuttavia, comporta anche una notevole attenua-

zione del segnale a causa del fattore 𝑇

𝑇𝑐<< 1.

Errori di ricoprimento spettrale (aliasing). 9.5 -

Se si suppone che il segnale 𝑠(𝑡), se pur non rigorosamente pas-

sabasso, abbia la maggior parte della sua energia concentrata in una

banda (−𝑓𝑚, 𝑓𝑚), si può pensare di effettuare un campionamento, che

per semplicità si suppone ideale, utilizzando una 𝑓𝑐 = 2𝑓𝑚. In questo ca-

so il segnale ricostruito ��(𝑡) non può riprodurre fedelmente 𝑠(𝑡) (vedi

fig. Fig. 9.9). Si rende quindi necessario stimare l'entità dell'errore com-

messo. A tal fine si calcoli la distanza euclidea tra il segnale e la sua ver-

sione ricostruita:

𝑒 = ∫ |𝑠(𝑡) − ��(𝑡)|2𝑑𝑡∞

−∞

(9.5.1)

Applicando il teorema di Parseval la precedente si può anche scrivere:

𝑒 = ∫ |𝑆(𝑓) − ��(𝑓)|2𝑑𝑓∞

−∞

(9.5.2)

Fig. 9.9 - Campionamento di un segnale a banda non limitata.

Page 200: Lezioni di TEORIA DEI SEGNALI.pdf

188 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ricordando che la ricostruzione del segnale avviene mediante un filtro

passabasso, e che quindi ��(𝑓) è nullo all'esterno di (−𝑓𝑚, 𝑓𝑚), è lecito ri-

formulare la (9.5.2) come segue:

𝑒 = ∫ |𝑆(𝑓)|2𝑑𝑓|𝑓|>𝑓𝑚

+∫ |𝑆(𝑓) − ��(𝑓)|2𝑑𝑓𝑓𝑚

−𝑓𝑚

(9.5.3)

La presenza del primo addendo della (9.5.3) è inevitabile, in quan-

to esso è dovuto alle componenti spettrali di 𝑠(𝑡) che cadono al di fuori

della banda di interesse. Il secondo addendo nasce a causa del ricopri-

mento spettrale (aliasing).

Se si provvede a prefiltrare il segnale mediante un filtro passa

basso, che per semplicità supponiamo ideale, di banda 𝑓𝑚 prima di cam-

pionarlo (vedi Fig. 9.10), la distanza euclidea (9.5.1) diventa:

�� = ∫ |𝑆(𝑓)|2𝑑𝑓|𝑓|>𝑓𝑚

(9.5.4)

in quanto in questo caso viene a mancare il contributo all’errore dovuto

all’aliasing.

Poiché evidentemente risulta 𝑒 > �� si conclude che l'introduzione

di un prefiltro è sempre auspicabile in quanto comunque comporta una

riduzione dell'errore di ricostruzione.

Esempio 9.1

Il segnale

𝑆(𝑓) = 𝑒−|𝑓|

𝑓𝑎

è un segnale a banda non limitata. Supponendo di campionarlo con frequen-

za 𝑓𝑐, lo spettro del segnale campionato vale:

Fig. 9.10 Campionamento con prefiltraggio

Page 201: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 189

𝑆𝑐(𝑓) = ∑ 𝑒−|𝑓−𝑛𝑓𝑐|

𝑓𝑎

𝑛=−∞

=𝑒−𝑓𝑐𝑓𝑎

1 − 𝑒−𝑓𝑐𝑓𝑎

(𝑒𝑓

𝑓𝑎 + 𝑒−𝑓

𝑓𝑎) + 𝑒−|𝑓|

𝑓𝑎

Di conseguenza lo spettro del segnale ricostruito vale:

��(𝑓) = 𝑆𝑐(𝑓)⊓ (𝑓

𝑓𝑐)

e risulta:

𝑒 = 2∫ 𝑒−2𝑓

𝑓𝑎𝑑𝑓∞

𝑓𝑐2

+ 𝑒−2𝑓𝑐𝑓𝑎 (1 − 𝑒

−𝑓𝑐𝑓𝑎)

−2

∫ (𝑒𝑓

𝑓𝑎 + 𝑒−𝑓

𝑓𝑎)2

𝑑𝑓

𝑓𝑐2

−𝑓𝑐2

L'errore 𝑒 risulta allora:

𝑒 = 2 [𝑓𝑐 (𝑒𝑓𝑐𝑓𝑎 − 1)

−2

+ 𝑓𝑎 (𝑒𝑓𝑐𝑓𝑎 − 1)

−1

]

In presenza di prefiltro l'errore vale:

�� = ∫ 𝑒−2|𝑓|

𝑓𝑎 𝑑𝑓|𝑓|>

𝑓𝑐2

= 𝑓𝑎𝑒−𝑓𝑐𝑓𝑎

Campionamento ideale dei segnali passabanda. 9.6 -

Le considerazioni svolte precedentemente possono essere estese

al caso di un segnale passabanda, effettuando il campionamento con

frequenza non inferiore al doppio della massima frequenza contenuta

nel suo spettro.

Per i segnali di tipo passabanda, tuttavia, è talvolta possibile effet-

tuare un campionamento ad una frequenza inferiore a quella di Nyquist.

Infatti è chiaro che, almeno in linea di principio, la ricostruzione di un

segnale a partire dalla sequenza dei suoi campioni è possibile a patto che

il suo spettro coincida, dove non è nullo, con la sua ripetizione periodi-

ca. In altre parole è possibile ricostruire il segnale, purché si scelga una

frequenza di campionamento che non dia luogo al fenomeno dell'alia-

sing.

Una condizione che deve necessariamente essere soddisfatta da

una possibile frequenza di campionamento 𝑓𝑐 è la seguente:

𝑓𝑐 − 𝐵 ≥ 𝐵 (9.6.1)

ovvero:

𝑓𝑐 ≥ 2𝐵 (9.6.2)

dove 𝐵 indica la banda del segnale.

Page 202: Lezioni di TEORIA DEI SEGNALI.pdf

190 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ci si convince che, data la generica ripetizione dello spettro:

𝑆(𝑓 − 𝑘𝑓𝑐) = 𝑆−(𝑓 − 𝑘𝑓𝑐) + 𝑆+(𝑓 − 𝑘𝑓𝑐) (9.6.3)

l'eventuale interferenza si può verificare, o a causa di un termine

𝑆−(𝑓 − 𝑘𝑓𝑐) che, in corrispondenza di un dato valore dell'indice 𝑘 posi-

tivo, va a sovrapporsi a 𝑆+(𝑓), o, dualmente, a causa di un termine

𝑆+(𝑓 − 𝑘𝑓𝑐) che, per un qualche 𝑘 < 0, interferisce con 𝑆−(𝑓).

Ci si rende conto che 𝑓𝑐 è una possibile frequenza di campiona-

mento se, in corrispondenza al massimo valore �� dell'indice 𝑘 per cui la

componente 𝑆−(𝑓 − 𝑘𝑓𝑐) si mantiene alla sinistra di 𝑆+(𝑓), risulta che il

termine 𝑆−(𝑓 − (𝑘 + 1)𝑓𝑐), relativo alla successiva ripetizione dello spet-

tro del segnale, rimane alla destra di 𝑆+(𝑓).

Quanto detto (vedi Fig. 9.11) si traduce nelle disuguaglianze:

𝑘𝑓𝑐 − (𝑓0 −𝐵

2) ≤ 𝑓0 −

𝐵

2 (9.6.4)

(𝑘 + 1)𝑓𝑐 − (𝑓0 +𝐵

2) ≥ 𝑓0 +

𝐵

2 (9.6.5)

Combinando le precedenti si ottiene:

2𝑓0 + 𝐵

𝑘 + 1≤ 𝑓𝑐 ≤

2𝑓0 − 𝐵

k (9.6.6)

La quale definisce un intervallo di frequenze di campionamento

solo per quei valori di 𝑘 per cui risulta 2𝑓0+𝐵

𝑘+1≤

2𝑓0−𝐵

𝑘; ciò implica il fatto

che �� deve soddisfare la seguente limitazione:

Fig. 9.11 - frequenze di campionamento per un segnale passabanda

Page 203: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 191

𝑘 ≤ ⌊𝑓0𝐵−1

2⌋ (9.6.7)

dove la notazione ⌊𝑥⌋ indica la parte intera di 𝑥.

In conclusione, ad ogni valore di 𝑘 che soddisfa la (9.6.7) corri-

sponde un intervallo di frequenze di campionamento. Il numero di tali

intervalli cresce all'aumentare del rapporto 𝑓0

𝐵.

Il diagramma di Fig. 9.12 consente di dedurre tutti i possibili valori

delle frequenze di campionamento (regioni non ombreggiate). Si osservi

inoltre che, tanto più grande è 𝑓0

𝐵 tanto più piccola può essere la frequen-

za di campionamento rispetto alla frequenza di centro banda del segnale,

compatibilmente con l'estremo inferiore definito dalla (9.6.2).

Fig. 9.12 - Intervalli di frequenze di campionamento per un segnale passa-banda.

Page 204: Lezioni di TEORIA DEI SEGNALI.pdf

192 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Tuttavia, si osservi che, l'ampiezza degli intervalli di campiona-

mento a frequenza bassa al crescere di 𝑓0

𝐵 diventa piccola imponendo

conseguentemente condizioni stringenti sulle specifiche di stabilità in

frequenza del generatore della funzione campionatrice.

Esempio 9.2

Si determinino le possibili frequenze di campionamento per un segnale

passa banda avente le seguenti caratteristiche

𝑓0 = 10𝑘𝐻𝑧 , 𝐵 = 1,0𝑘𝐻𝑧

Gli intervalli di possibili frequenze di campionamento (espresse in 𝑘𝐻𝑧)

sono date dalla 21

𝑘 + 1≤ 𝑓𝑠 ≤

19

𝑘

essendo

1 ≤ 𝑘 ≤ ⌊10 −1

2⌋ = 9

Esistono allora 9 intervalli di frequenze di campionamento possibili oltre

ovviamente a quello che contiene le frequenze non inferiori alla frequenza di

Nyquist. Detti intervalli, espressi in 𝑘𝐻𝑧, valgono:

𝐼0 ≡ (21, ∞) 𝑘 = 0

𝐼1 ≡ (10.5, 19) 𝑘 = 1

𝐼2 ≡ (7, 9.5) 𝑘 = 2

𝐼3 ≡ (5.25, 6.333) 𝑘 = 3

𝐼4 ≡ (4.2, 4.75) 𝑘 = 4

𝐼5 ≡ (3.5, 3.8) 𝑘 = 5

𝐼6 ≡ (3, 3.16) 𝑘 = 6

𝐼7 ≡ (2.625, 2.714) 𝑘 = 7

𝐼8 ≡ (2.333, 2.375) 𝑘 = 8

𝐼9 ≡ (2.1, 2.111) 𝑘 = 9

Per realizzare il campionamento alla minima frequenza si richiede quindi

una tolleranza nella frequenza del generatore della funzione campionatrice

inferiore allo: 2,111 − 2,12,111+2,1

2

∗ 100 = 0,53%

Esempio 9.3

Un'interessante applicazione del campionamento si riscontra nel funzio-

namento degli oscilloscopi campionatori tramite i quali è possibile rappre-

Page 205: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 193

sentare segnali periodici anche quando il loro contenuto armonico supera

l'ampiezza di banda propria dello strumento.

Per chiarire il principio di funzionamento di dette apparecchiature si con-

sideri un segnale 𝑠(𝑡) periodico di periodo 𝑇0 = 1 𝑓0⁄ come mostra la Fig.E

9.1 dove si è rappresentato anche lo spettro che nel caso in questione è costi-

tuito dalle righe in blu centrate a ±𝑓0, ±2𝑓0, ±3𝑓0.

Supponendo di campionare il segnale 𝑠(𝑡) con una frequenza di campio-

namento 𝑓𝑐 inferiore a 𝑓0, cioè pari a 𝑓𝑐 = 𝛼𝑓0, con 0 < 𝛼 < 1 (nella figura

si è scelto 𝛼 = 0,9) si ottiene un segnale campionato il cui spettro 𝑆𝑐(𝑓) è

costituito dalla ripetizione periodica, con periodo 𝑓𝑐, di quello 𝑆(𝑓) di 𝑠(𝑡).

Precisamente

𝑆𝑐(𝑓) = ∑ 𝑆(𝑓 − 𝑘𝑓𝑐)

𝑘=−∞

Lo spettro di 𝑠(𝑡) è a righe in quanto periodico. La prima armonica di 𝑠(𝑡)

genera in 𝑆𝑐(𝑓) una sequenza di delta di Dirac della sua stessa ampiezza

centrate alle frequenze 𝑓0 − 𝑘𝑓𝑐 = (1 − 𝑘𝛼)𝑓0, 𝑘 ∈ ℕ.

Le altre componenti armoniche genereranno a loro volta delle ulteriori

sequenze di righe spettrali. Di conseguenza lo spettro del segnale campiona-

to si presenta come è indicato nella stessa Fig.E 9.1 in cui ogni ripetizione

dello spettro è stata riportata con un colore diverso.

Filtrando il segnale campionato mediante un filtro passabasso di banda 𝑓𝑐

2, che si suppone inferiore alla banda propria dello strumento, si ottiene un

segnale ��(𝑡) il cui spettro è costituito soltanto dalle righe di 𝑆𝑐(𝑓) apparte-

nenti all'intervallo (−𝑓𝑐

2,𝑓𝑐

2) cioè quelle per cui è verificata la disuguaglian-

za:

−𝛼𝑓02≤ 𝑛𝑓0 − 𝑘𝛼𝑓0 ≤

𝛼𝑓02

dalla quale si ricava che i valori di 𝑘 devono appartenere all’intervallo di mis

ura 1:

[𝑛

𝛼−1

2,𝑛

𝛼+1

2]

Page 206: Lezioni di TEORIA DEI SEGNALI.pdf

194 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Purché gli estremi di tale intervallo non siano interi, cosa che non accade

se si sceglie un valore di 𝛼 che soddisfi la condizione:

𝛼 ≠2𝑝

2𝑞 + 1 𝑝, 𝑞 ∈ ℕ

ad ogni valore di 𝑛 corrisponde un unico valore di 𝑘 = ⌊𝑛

𝛼+

1

2⌋. Cioè una so-

la ripetizione di una data armonica del segnale viene a cadere nell'intervallo

(−𝑓𝑐

2,𝑓𝑐

2). L'armonica d’indice 𝑛 del segnale, di frequenza 𝑛𝑓0, viene quindi

riportata in una riga di pari ampiezza centrata alla frequenza:

𝑓𝑛′ = (𝑛 − 𝛼 ⌊

𝑛

𝛼+1

2⌋) 𝑓0

Affinché il segnale all'uscita del filtro riproduca la forma di 𝑠(𝑡) le righe

che cadono all'interno della banda (−𝑓𝑐

2,𝑓𝑐

2) devono rispettare la sequenza

delle armoniche del segnale originario e devono essere tra loro spaziate di un

intervallo pari alla frequenza in cui viene riportata la prima armonica del se-

gnale.

Posto:

𝜈𝑛 = ⌊𝑛

𝛼+1

2⌋

Si deve cioè avere;

𝑓′𝑛= 𝑛𝑓0

′ ⇒ (𝑛 − 𝛼𝜈𝑛)𝑓0 = 𝑛(1 − 𝛼𝜈0)𝑓0 ⇒ 𝜈𝑛 = 𝑛𝜈0

Fig.E 9.1

Page 207: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 195

che comporta per 𝑛 la seguente limitazione.

|𝑛 − 𝛼𝑛𝜈0| <𝛼

2

o equivalentemente:

𝑛 <𝛼

2|1 − 𝛼𝜈0|

ammesso che si sia scelto un valore 𝛼 che consenta di soddisfare la prece-

dente disuguaglianza per tutte le armoniche contenute nel segnale, ovvero

che le armoniche che non la soddisfano abbiano ampiezza trascurabile. Il se-

gnale ��(𝑡) ottenuto all'uscita del filtro assume la forma:

��(𝑡) = ∑ 𝑆𝑘𝑒𝑗2𝜋𝑘(1−𝛼𝜈0)𝑓0𝑡

𝑛

𝑘=−𝑛

dove 𝑆𝑘 rappresenta il generico coefficiente dello sviluppo in serie di Fourier

di 𝑠(𝑡).

Ricostruzione del segnale passabanda. 9.7 -

Anche per i segnali passabanda si può dedurre una formula di ri-

costruzione del tipo della (9.1.8). Basta osservare che indicando con 𝑓𝑐

un possibile valore della frequenza di campionamento, la ripetizione pe-

riodica del segnale può essere sviluppata in serie di Fourier:

𝑆𝑐(𝑓) = ∑ 𝑆(𝑓 − 𝑛𝑓𝑐)

𝑛=−∞

= ∑ 𝐶𝑛𝑒−𝑗2𝜋

𝑛𝑓

𝑓𝑐

𝑛=−∞

(9.7.1)

osservando che in ogni periodo 𝑓𝑐 di 𝑆𝑐(𝑓) cadono una sola ripetizione

di 𝑆−(𝑓) e una di 𝑆+(𝑓), 𝐶𝑛 può essere calcolato come segue:

𝐶𝑛 = ∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑛𝑓

𝑓𝑐 𝑑𝑓

−𝑓0+𝑓𝑐4

−𝑓0−𝑓𝑐4

+ ∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑛𝑓

𝑓𝑐 𝑑𝑓

𝑓0+𝑓𝑐4

𝑓0−𝑓𝑐4

= 𝑠 (𝑛

𝑓𝑐) (9.7.2)

La trasformata del segnale vale:

𝑆(𝑓) =1

𝑓𝑐[⊓ (2

𝑓 − 𝑓0𝑓𝑐

) +⊓ (2𝑓 + 𝑓0𝑓𝑐

)] ∑ 𝑠 (𝑛

𝑓𝑐) 𝑒

−𝑗2𝜋𝑛𝑓

𝑓𝑐

𝑛=−∞

(9.7.3)

quindi:

𝑠(𝑡)

=1

𝑓𝑐∑ 𝑠(

𝑛

𝑓𝑐) [∫ 𝑒

𝑗2𝜋𝑓(𝑡−𝑛

𝑓𝑐)𝑑𝑓

−𝑓0+𝑓𝑐4

−𝑓0−𝑓𝑐4

+∫ 𝑒𝑗2𝜋𝑓(𝑡−

𝑛

𝑓𝑐)𝑑𝑓

𝑓0+𝑓𝑐4

𝑓0−𝑓𝑐4

]

𝑛=−∞

(9.7.4)

Page 208: Lezioni di TEORIA DEI SEGNALI.pdf

196 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Operando rispettivamente nel primo e nel secondo integrale le sostitu-

zioni:

𝑓 = 𝜑 − 𝑓0; 𝑓 = 𝜑 + 𝑓0 (9.7.5)

la precedente può essere riscritta:

𝑠(𝑡) =1

𝑓𝑐∑ 𝑠(

𝑛

𝑓𝑐) [𝑒

−𝑗2𝜋𝑓0(𝑡−𝑛

𝑓𝑐)∫ 𝑒

𝑗2𝜋𝜑(𝑡−𝑛

𝑓𝑐)𝑑𝜑

𝑓𝑐4

−𝑓𝑐4

𝑛=−∞

+

+𝑒𝑗2𝜋𝑓0(𝑡−

𝑛

𝑓𝑐)∫ 𝑒

𝑗2𝜋𝜑(𝑡−𝑛

𝑓𝑐)𝑑𝜑

𝑓𝑐4

−𝑓𝑐4

] =

=2

𝑓𝑐∑ 𝑠(

𝑛

𝑓𝑐) cos [2𝜋𝑓0 (𝑡 −

𝑛

𝑓𝑐)]∫ 𝑒

𝑗2𝜋𝜑(𝑡−𝑛

𝑓𝑐)𝑑𝜑

𝑓𝑐4

−𝑓𝑐4

𝑛=−∞

(9.7.6)

In definitiva quindi si ottiene:

𝑠(𝑡) = ∑ 𝑠 (𝑛

𝑓𝑐) cos [2𝜋𝑓0 (𝑡 −

𝑛

𝑓𝑐)] sinc [

𝑓𝑐2(𝑡 −

𝑛

𝑓𝑐)]

𝑛=−∞

(9.7.7)

che rappresenta la formula di ricostruzione per i segnali passabanda.

Campionamento del secondo ordine. 9.8 -

Dalle (9.1.8) e (9.7.7) si deduce che la ricostruzione di un segnale

a banda limitata è possibile a partire da una sequenza di valori campio-

nati 𝑠 (𝑛

𝑓𝑐); tale tipo di campionamento prende il nome di campionamen-

to del primo ordine. È anche possibile dedurre formule di ricostruzione

utilizzando due sequenze distinte di campioni, una ottenuta da 𝑠(𝑡), l'al-

tra da una sua opportuna trasformazione.

Segnali passabasso.

Sia 𝑠(𝑡) un segnale passabasso di banda 𝑓𝑚. Il segnale analitico

𝑧(𝑡) ad esso associato è:

𝑧(𝑡) = 𝑠(𝑡) + 𝑗��(𝑡) (9.8.1)

dove ��(𝑡) è la trasformata di Hilbert di 𝑠(𝑡). Poiché, com’è noto, lo

spettro di 𝑧(𝑡) è contenuto nell'intervallo (0, 𝑓𝑚), si ha (vedi Fig. 9.13):

𝑍(𝑓) =⊓ (𝑓

𝑓𝑐−1

2) ∑ 𝑍(𝑓 − 𝑘𝑓𝑐)

𝑘=−∞

(9.8.2)

purché risulti:

Page 209: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 197

𝑓𝑐 ≥ 𝑓𝑚 (9.8.3)

la (9.8.2) si può anche scrivere nella forma:

𝑍(𝑓) =1

𝑓𝑐⊓ (

𝑓

𝑓𝑐−1

2) ∑ 𝑧 (

𝑛

𝑓𝑐) 𝑒

−𝑗2𝜋𝑛𝑓

𝑓𝑐

𝑛=−∞

(9.8.4)

Antitrasformando si ottiene quindi:

𝑧(𝑡) =1

𝑓𝑐∑ 𝑧(

𝑛

𝑓𝑐)∫ ⊓ (

𝑓

𝑓𝑐−1

2) 𝑒

𝑗2𝜋𝑓(𝑡−𝑛

𝑓𝑐)𝑑𝑓

−∞

=

𝑛=−∞

=1

𝑓𝑐∑ 𝑧(

𝑛

𝑓𝑐)∫ 𝑒

𝑗2𝜋𝑓(𝑡−𝑛

𝑓𝑐)𝑑𝑓

𝑓𝑐

0

=

𝑛=−∞

∑ 𝑧(𝑛

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)] 𝑒

𝑗𝜋𝑓𝑐(𝑡−𝑛

𝑓𝑐)

𝑛=−∞

(9.8.5)

ma 𝑠(𝑡) = Re[𝑧(𝑡)], pertanto:

𝑠(𝑡) = ∑ 𝑠 (𝑛

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)] cos [𝜋𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)] +

𝑛=−∞

− ∑ ��𝑠 (𝑛

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)] sin [𝜋𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)]

𝑛=−∞

(9.8.6)

che è la formula di ricostruzione del segnale a partire da due diverse se-

quenze di campioni ottenuti da 𝑠(𝑡) e da ��(𝑡) rispettivamente.

La minima possibile frequenza di campionamento, in questo ca-

so, è pari alla banda del segnale 𝑠(𝑡) quindi è la metà di quella minima

per il campionamento del primo ordine. Tuttavia va sottolineato il fatto

che il numero minimo di campioni al secondo per poter effettuare la ri-

Fig. 9.13 - - Ripetizione periodica dello spettro del segnale analitico.

Page 210: Lezioni di TEORIA DEI SEGNALI.pdf

198 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

costruzione è ancora una volta pari a 2𝑓𝑚; ne occorrono infatti almeno

𝑓𝑚 al secondo per la sequenza ottenuta da 𝑠(𝑡) ed altrettanti per quella

ottenuta da ��(𝑡). L'unico vantaggio nell'impiego di questo tipo di cam-

pionamento è quello di poter utilizzare dei campionatori a frequenza in-

feriore a condizione però di disporre di un sistema in grado di generare

la trasformata di Hilbert del segnale.

Segnali passabanda.

Le considerazioni sopra svolte possono essere estese al caso di

segnali passabanda. In questo caso 𝑍(𝑓) è contenuto nell'intervallo

(𝑓1, 𝑓2). Pertanto pur di scegliere:

𝑓𝑐 ≥ 𝑓2 − 𝑓1 (9.8.7)

si può scrivere:

𝑍(𝑓) =1

𝑓𝑐⊓ (

𝑓 − 𝑓0𝑓𝑐

) ∑ 𝑧 (𝑛

𝑓𝑐) 𝑒

−𝑗2𝜋𝑛𝑓

𝑓𝑐

𝑛=−∞

(9.8.8)

che antitrasformata fornisce:

𝑧(𝑡) =1

𝑓𝑐∑ 𝑧(

𝑛

𝑓𝑐)∫ 𝑒

𝑗2𝜋𝑓(𝑡−𝑛

𝑓𝑐)𝑑𝑓

𝑓0+𝑓𝑐2

𝑓0−𝑓𝑐2

𝑛=−∞

(9.8.9)

Effettuando la sostituzione di variabile 𝑓 = 𝑓0 + 𝜑 si ottiene:

𝑧(𝑡) =1

𝑓𝑐∑ 𝑧(

𝑛

𝑓𝑐) 𝑒

𝑗2𝜋𝑓0(𝑡−𝑛

𝑓𝑐)∫ 𝑒

𝑗2𝜋𝜑(𝑡−𝑛

𝑓𝑐)𝑑𝜑

𝑓𝑐2

−𝑓𝑐2

𝑛=−∞

=

= ∑ 𝑧 (𝑛

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)] 𝑒

𝑗2𝜋𝑓0(𝑡−𝑛

𝑓𝑐)

𝑛=−∞

(9.8.10)

Prendendo infine la parte reale della precedente si ha:

𝑠(𝑡) = ∑ 𝑠 (𝑛

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)] cos [2𝜋𝑓0 (𝑡 −

𝑛

𝑓𝑐)] +

𝑛=−∞

− ∑ �� (𝑛

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)] sin [2𝜋𝑓0 (𝑡 −

𝑛

𝑓𝑐)]

𝑛=−∞

(9.8.11)

che permette di ricostruire un segnale passabanda dai campioni di 𝑠(𝑡) e

di ��(𝑡). Si noti che la frequenza di campionamento è dell'ordine della

Page 211: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 9 - Il Campionamento dei Segnali - 199

banda del segnale e quindi risulta molto inferiore a quella necessaria per

il campionamento del primo ordine.

In questo caso, inoltre, l'unica limitazione sulla scelta della fre-

quenza di campionamento è fornita dalla (9.8.7), a differenza del cam-

pionamento del primo ordine dei segnali passabanda, in cui è invece ne-

cessario scegliere frequenze di campionamento appartenenti ad oppor-

tuni intervalli.

Page 212: Lezioni di TEORIA DEI SEGNALI.pdf
Page 213: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 10

SEGNALI A TEMPO DISCRETO

Segnali a tempo discreto. Energia e potenza specifica. 10.1 -

Un segnale a tempo discreto è rappresentato da una funzione rea-

le o complessa 𝑠(𝑡𝑛) definita su un insieme, al più numerabile, di istanti

di tempo. In quel che segue la successione degli istanti 𝑡𝑛 si suppone re-

golare, cioè si suppone che:

𝑡𝑛 = 𝑛𝑇; 𝑛 ∈ ℤ (10.1.1)

dove 𝑇 è detto quanto temporale.

Assumendo che 𝑠(𝑡𝑛) valga zero in corrispondenza di tutti i valo-

ri dell'indice in cui non è altrimenti definito, si dice che il segnale è ad

energia specifica finita se la quantità:

𝐸 = 𝑇 ∑ |𝑠(𝑛𝑇)|2∞

𝑛=−∞

(10.1.2)

è finita. Nel caso in cui sia finita la quantità:

𝑃 = lim𝑁→∞

1

2𝑁 + 1∑ |𝑠(𝑛𝑇)|2𝑁

𝑛=−𝑁

(10.1.3)

si dice che il segnale è a potenza specifica finita.

Risulta evidente che, come per il caso dei segnali a tempo conti-

nuo, un segnale a tempo discreto a potenza specifica finita, ha energia

specifica infinita; un segnale ad energia finita ha potenza specifica nulla.

Esempio 10.1

Il segnale Fig.E 10.1:

𝑢(𝑛𝑇) = {1; 𝑛 ≥ 00; 𝑛 < 0

costituisce il cosiddetto gra-

dino unitario a tempo discre-

to. E’ un segnale a potenza

finita, dal momento che si

verifica facilmente che:

Fig.E 10.1

Page 214: Lezioni di TEORIA DEI SEGNALI.pdf

202 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑃 = 𝑙𝑖𝑚𝑁→∞

1

2𝑁 + 1∑𝑢2(𝑛𝑇)

𝑁

𝑛=0

= 𝑙𝑖𝑚𝑁→∞

𝑁 + 1

2𝑁 + 1=1

2

Esempio 10.2

Il segnale (vedi Fig.E

10.2):

𝛿(𝑛𝑇) = {1; 𝑛 = 00; 𝑛 ≠ 0

è detto impulso unitario a

tempo discreto ed è un

segnale ad energia finita. Infatti:

𝐸 = 𝑇 ∑ 𝛿2(𝑛𝑇)

𝑛=−∞

= 𝑇

Esempio 10.3

Si consideri il segnale:

𝑠(𝑛𝑇) = 𝑎−𝑛𝑇𝑢(𝑛𝑇), 𝑎 ∈ ℂ

La sua energia specifica

𝐸 = 𝑇∑ |𝑎|−2𝑛𝑇∞

𝑛=0

è finita, solo se la serie geometrica di ragione |𝑎|−2𝑇 converge, cioè se risul-

ta |𝑎| > 1.

In tal caso si ha:

𝐸 =𝑇

1 − |𝑎|−2𝑇

Segnali periodici. 10.2 -

Un segnale 𝑠(𝑛𝑇) si dice periodico se esistono interi positivi ��

tali che risulti:

𝑠(𝑛𝑇) = 𝑠(𝑛𝑇 + 𝑘��𝑇); ∀𝑘 ∈ ℤ (10.2.1)

Detto 𝑁 = min{��}, la quantità 𝑇0 = 𝑁𝑇 si dice periodo principale del se-

gnale o semplicemente periodo.

Esempio 10.4

Il segnale

𝑠(𝑛𝑇) = cos(2𝜋𝑛𝑓0𝑇)

è periodico se esistono �� ∈ ℕ tali che risulti:

Fig.E 10.2

Page 215: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 10 - Segnali a Tempo Discreto - 203

cos(2𝜋𝑛𝑓0𝑇) = cos[2𝜋(𝑛 + ��)𝑓0𝑇] ; ∀𝑛 ∈ ℤ

Detta condizione è soddisfatta solo se

∃𝑘 ∈ ℕ | 𝑓0𝑇 =𝑘

��

La quantità 𝑓0𝑇 deve quindi essere un numero razionale. Il periodo principa-

le 𝑇0 = 𝑁𝑇 del segnale si determina riducendo 𝑓0𝑇 ai minimi termini: cioè

scrivendolo nella forma:

𝑓0𝑇 =𝑘′

𝑁

con 𝑘′ e 𝑁 primi tra loro.

Si osservi che per qualsiasi intero 𝑚, è:

cos [2𝜋𝑛 (𝑓0 +𝑚

𝑇)𝑇] = cos(2𝜋𝑛𝑓0𝑇)

Ciò significa che il campionamento dei due segnali a tempo continuo:

𝑠1(𝑡) = cos(2𝜋𝑛𝑓0𝑡) ;  𝑠2(𝑡) = cos [2𝜋 (𝑓0 +𝑚

𝑇) 𝑡]

effettuato con passo 𝑇 produce la stessa sequenza di campioni (ambiguità

della frequenza) come è mostrato in Fig.E 10.3.

L'energia specifica di un segnale periodico non identicamente nul-

lo è infinita.

Fig.E 10.3

Page 216: Lezioni di TEORIA DEI SEGNALI.pdf

204 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Ci si rende inoltre facilmente conto del fatto che la potenza speci-

fica di un segnale periodico si può anche esprimere nella forma:

𝑃 =1

𝑁∑ |𝑠(𝑛𝑇)|2𝑁

𝑛=1

(10.2.2)

dalla quale si deduce che un segnale periodico è a potenza finita a meno

che non sia illimitato.

La trasformata discreta di Fourier 10.3 -

In quel che segue si mostrerà che il generico elemento di un se-

gnale periodico può essere espresso nella forma:

𝑠(𝑛𝑇) = ∑ 𝑆𝑚𝑒𝑗2𝜋𝑚

𝑛𝑇

𝑇0

𝑁

𝑚=1

(10.3.1)

Quest'ultima, tenuto conto della definizione di T0 si può riscrivere:

𝑠(𝑛𝑇) = ∑ 𝑆𝑚𝑒𝑗2𝜋

𝑚𝑛

𝑁

𝑁

𝑚=1

(10.3.2)

Infatti si osservi che un segnale periodico è univocamente deter-

minato da una 𝑁-upla ordinata di numeri complessi corrispondenti ai

valori assunti dal segnale in un periodo prefissato. In altri termini un se-

gnale periodico è univocamente individuato da un vettore in ℂ𝑁.

Si considerino i seguenti 𝑁 vettori in ℂ𝑁 riferiti alla sua base ca-

nonica:

𝒖𝑚 = [

1

√𝑁𝑒𝑗2𝜋𝑚

1

𝑁1

√𝑁𝑒𝑗2𝜋𝑚

2

𝑁 …1

√𝑁𝑒𝑗2𝜋𝑚

𝑁

𝑁]𝑇

 ;    

   m = 1,2,… , 𝑁

(10.3.3)

Essi costituiscono una base ortonormale per ℂ𝑁, si ha infatti:

⟨𝒖𝑘 , 𝒖𝑙⟩ =1

𝑁∑𝑒𝑗2𝜋

𝑘𝑛

𝑁

𝑁

𝑛=1

𝑒−𝑗2𝜋𝑙𝑛

𝑁 =1

𝑁∑𝑒𝑗2𝜋

(𝑘−𝑙)𝑛

𝑁

𝑁

𝑛=1

=1

𝑁∑𝑒𝑗2𝜋

(𝑘−𝑙)𝑛

𝑁

𝑁

𝑛=0

−1

𝑁

= {

1; 𝑘 = 𝑙

1

𝑁

𝑒𝑗2𝜋(𝑘−𝑙)(𝑁+1)

𝑁 − 1

𝑒𝑗2𝜋(𝑘−𝑙)

𝑁 − 1−1

𝑁= 0; 𝑘 ≠ 𝑙

(10.3.4)

Page 217: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 10 - Segnali a Tempo Discreto - 205

Pertanto ogni elemento 𝑠 ∈ ℂ𝑁 si può univocamente esprimere

nella seguente forma:

𝒔 = ∑⟨𝒔, 𝒖𝑚⟩𝒖𝑚

𝑁

𝑚=1

(10.3.5)

La generica componente di 𝒔 rispetto alla base canonica vale

quindi:

𝑠𝑛 = ∑⟨𝒔, 𝒖𝑚⟩1

√𝑁𝑒𝑗2𝜋

𝑚𝑛

𝑁

𝑁

𝑚=1

; 𝑛 = 1,2, … , 𝑁 (10.3.6)

La (10.3.6)dal momento che per 1 ≤ 𝑛 ≤ 𝑁 risulta 𝑠𝑛 = 𝑠(𝑛𝑇) si

identifica con la (10.3.2) qualora si ponga:

𝑆𝑚 =1

𝑁∑𝑠(𝑛𝑇)𝑒−𝑗2𝜋

𝑛𝑚

𝑁 ;

𝑁

𝑛=1

𝑚 = 1,2, … , 𝑁 (10.3.7)

Si osservi che 𝑆𝑚 può essere interpretato come il generico ele-

mento di una sequenza {𝑆𝑛} periodica di periodo 𝑁 essendo:

𝑆𝑚+𝑁 =

1

𝑁∑𝑠(𝑛𝑇)𝑒−𝑗2𝜋(𝑚+𝑁)

𝑛

𝑁

𝑁

𝑛=1

=1

𝑁∑𝑠(𝑛𝑇)𝑒−𝑗2𝜋

𝑚𝑛

𝑁

𝑁

𝑛=1

= 𝑆𝑚

(10.3.8)

La (10.3.2) ricorda l'espansione in serie di Fourier di un segnale

periodico a tempo continuo. È da osservare tuttavia che, mentre l'e-

spansione in serie di Fourier dei segnali periodici a tempo continuo con-

tiene una infinità numerabile di funzioni del tipo 𝑒𝑗2𝜋𝑛𝑡 𝑇0⁄ , nella (10.3.2)

compaiono soltanto gli 𝑁 esponenziali 𝑒𝑗2𝜋𝑚𝑛/𝑁.

Si osservi inoltre che, in virtù della periodicità del segnale 𝑠(𝑛𝑇),

della sequenza {𝑆𝑚} e dei fattori 𝑒±𝑗2𝜋𝑚𝑛/𝑁 rispetto agli indici 𝑚 e 𝑛, le

somme che compaiono nelle (10.3.1), (10.3.2) e (10.3.7) possono partire

da un indice qualsiasi purché siano estese a 𝑁 termini consecutivi.

Normalizzando il quanto temporale, cioè ponendo 𝑇 = 1, la

(10.3.1) e la (10.3.7) si riscrivono:

Page 218: Lezioni di TEORIA DEI SEGNALI.pdf

206 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

{

𝑠𝑛 = ∑ 𝑆𝑚𝑒

𝑗2𝜋𝑚𝑛

𝑁 ; 𝑛 = 1,2, … , 𝑁

𝑁

𝑚=1

𝑆𝑚 =1

𝑁∑𝑠𝑛𝑒

−𝑗2𝜋𝑚𝑛

𝑁 ; 𝑚 = 1,2, … , 𝑁

𝑁

𝑛=1

(10.3.9)

che mettono in corrispondenza due sequenze periodiche definite in do-

mini distinti.

Esempio 10.5

Si consideri il segnale a tempo discreto, periodico di periodo NT , che,

nel suo periodo fondamentale, è definito dalla:

𝑠(𝑛𝑇) = 𝑎𝑛𝑇; |𝑎| < 1, 𝑛 = 0,1,2,… , 𝑁 − 1

I coefficienti del suo sviluppo valgono:

𝑆𝑚 =1

𝑁∑ 𝑎𝑛𝑇𝑒−𝑗

2𝜋𝑚𝑛

𝑁

𝑁−1

𝑛=0

=1

𝑁∑ (𝑎𝑇𝑒−𝑗

2𝜋𝑚

𝑁 )𝑛

𝑁−1

𝑛=0

=1

𝑁

𝑎𝑁𝑇 − 1

𝑎𝑇𝑒−𝑗2𝜋𝑚

𝑁 − 1

=1

𝑁

1 − 𝑎𝑁𝑇

1 − 𝑎𝑇 [cos (2𝜋𝑚

𝑁) − 𝑗 sin (

2𝜋𝑚

𝑁)]=

=1

𝑁

1 − 𝑎𝑁𝑇

√1 − 2𝑎𝑇 cos (2𝜋𝑚

𝑁) + 𝑎2𝑇

⋅ 𝑒(−j⋅arctg

𝑎𝑇 sin(2𝜋𝑚𝑁

)

1−𝑎𝑇 cos(2𝜋𝑚𝑁

))

Segnali ad energia finita.

Sia 𝑠(𝑛𝑇) un segnale a tempo discreto ad energia finita. Ad esso,

per un assegnato valore 𝑁, che senza ledere la generalità supporremo

pari, si può associare il segnale troncato definito dalla:

𝑠𝑁(𝑛𝑇) = {𝑠(𝑛𝑇); 𝑛 = −

𝑁

2,… ,

𝑁

2− 1

0; 𝑎𝑙𝑡𝑟𝑜𝑣𝑒 (10.3.10)

ed il segnale ��𝑁(𝑛𝑇) ottenuto ripetendo periodicamente, con periodicità

𝑁𝑇, il segnale 𝑠𝑁(𝑛𝑇):

��𝑁(𝑛𝑇) = ∑ 𝑠𝑁(𝑛𝑇 + 𝑘𝑁𝑇)

𝑘=−∞

(10.3.11)

Page 219: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 10 - Segnali a Tempo Discreto - 207

Poiché il segnale ��𝑁(𝑛𝑇) è periodico, può per la (10.3.2), essere

scritto:

��𝑁(𝑛𝑇) = ∑ ��𝑁𝑚

𝑁

2−1

𝑚=−𝑁

2

𝑒𝑗2𝜋𝑚𝑛

𝑁 ; 𝑛 = −𝑁

2,… ,

𝑁

2− 1 (10.3.12)

dove

��𝑁𝑚 =1

𝑁∑ ��𝑁(𝑛𝑇)

𝑁

2−1

𝑛=−𝑁

2

𝑒−𝑗2𝜋𝑚𝑛

𝑁 ; 𝑚 = −𝑁

2,… ,

𝑁

2− 1 (10.3.13)

Sostituendo la (10.3.13) nella (10.3.12) si perviene alla:

��𝑁(𝑛𝑇) = 𝑇 ∑ (1

𝑁𝑇∑ ��𝑁(𝑖𝑇)𝑒

−𝑗2𝜋𝑚𝑖

𝑁

𝑁

2−1

𝑖=−𝑁

2

)𝑒𝑗2𝜋𝑚𝑛

𝑁

𝑁

2−1

𝑚=−𝑁

2

(10.3.14)

Si osservi che al crescere di 𝑁 il segnale ��𝑁(𝑛𝑇) tende a 𝑠(𝑛𝑇) e i

coefficienti ��𝑁𝑚 assumono valori sempre più piccoli a causa del fattore 1

𝑁. Inoltre, gli esponenziali 𝑒𝑗2𝜋𝑚𝑛 𝑁⁄ , rappresentando le radici 𝑁-esime

dell'unità, giacciono sulla circonferenza di centro l'origine e raggio unita-

rio del piano complesso, indipendentemente dal valore di 𝑁.

Al crescere di 𝑁, detti punti tendono a ricoprire completamente

detta circonferenza. Di conseguenza, al limite, la quantità 𝑚

𝑁𝑇 tende a

confondersi con una variabile continua. Ponendo allora al limite:

𝑚

𝑁𝑇→ 𝑓;

1

𝑁𝑇→ 𝑑𝑓 (10.3.15)

la (10.3.14), per 𝑁 → ∞, si può scrivere:

𝑠(𝑛𝑇) = 𝑇∫ ( ∑ 𝑠(𝑖𝑇)𝑒−𝑗2𝜋𝑖𝑓𝑇∞

𝑖=−∞

) 𝑒𝑗2𝜋𝑛𝑓𝑇𝑑𝑓

1

2𝑇

−1

2𝑇

(10.3.16)

che, ponendo

𝑆(𝑓) = 𝑇 ∑ 𝑠(𝑛𝑇)𝑒−𝑗2𝜋𝑛𝑓𝑇∞

𝑛=−∞

(10.3.17)

Page 220: Lezioni di TEORIA DEI SEGNALI.pdf

208 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

assume la forma:

𝑠(𝑛𝑇) = ∫ 𝑆(𝑓)𝑒𝑗2𝜋𝑛𝑓𝑇𝑑𝑓

1

2𝑇

−1

2𝑇

(10.3.18)

Le (10.3.17) e (10.3.18) costituiscono rispettivamente la trasfor-

mata e l'antitrasformata di Fourier di un segnale a tempo discreto a

energia finita.

Un segnale a tempo discreto definisce una sequenza numerica

{𝑠𝑛}, il cui generico elemento si ottiene ponendo 𝑠𝑛 = 𝑠(𝑛𝑇). Le

(10.3.17) e (10.3.18), ponendo 𝑇 = 1 e 𝜑 =𝑓

𝑇, si possono facilmente

reinterpretare come trasformazioni che associano ad una sequenza nu-

merica una funzione di una variabile continua.

Si ottiene:

𝑆(𝜑) = ∑ 𝑠𝑛𝑒−𝑗2𝜋𝑛𝜑

𝑛=−∞

(10.3.19)

e

𝑠𝑛 = ∫ 𝑆(𝜑)𝑒𝑗2𝜋𝑛𝜑𝑑𝜑

1

2

−1

2

(10.3.20)

Si noti che, a differenza dei segnali a tempo continuo, la funzione

𝑆(𝜑) è periodica in 𝜑 di periodo 1. Infatti, per ogni intero 𝑘, si può scri-

vere:

𝑆(𝜑 + 𝑘) = ∑ 𝑠𝑛𝑒−𝑗2𝜋𝑛(𝜙+𝑘)

𝑛=−∞

= ∑ 𝑠𝑛𝑒−𝑗2𝜋𝑛𝜑

𝑛=−∞

= 𝑆(𝜑) (10.3.21)

Ciò comporta che l'integrale nella (10.3.20) può essere esteso ad un

qualsiasi intervallo purché di ampiezza unitaria.

Esempio 10.6

La sequenza 𝛿𝑛, definita nellEsempio 10.2 ammette trasformata di Fourier

data dalla:

𝑆(𝜑) = ∑ 𝛿𝑛𝑒−𝑗2𝜋𝑛𝜑

𝑛=−∞

= 1

Page 221: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 10 - Segnali a Tempo Discreto - 209

Esempio 10.7

La trasformata di Fourier normalizzata del segnale:

𝑠𝑛 = 𝑎𝑛u𝑛, 0<a<1

dove u𝑛 è il gradino unitario, vale:

𝑆(𝜑) = ∑ 𝑎𝑛𝑒−𝑗2𝜋𝑛𝜑∞

𝑛=0=

∑ (𝑎𝑒−𝑗2𝜋𝜑)𝑛∞

𝑛=0=

1

1−𝑎𝑒−𝑗2𝜋𝜑=

1

√1−2arccos(2𝜋𝜑)+𝑎2𝑒[−𝑗arctg(

arcsin(2𝜋𝜑)

1−arccos(2𝜋𝜑))]

il cui modulo ad argomento sono riportati in

Fig.E 10.4.

Esempio 10.8

La trasformata di Fourier della sequenza:

𝑠𝑛 = {1; |𝑛| ≤ 𝑁0; |𝑛| > 𝑁

= 𝑢𝑛+𝑁 − 𝑢𝑛−𝑁

è data dalla:

𝑆(𝜑) = ∑ 𝑒−𝑗2𝜋𝑛𝜑𝑁

𝑛=−𝑁

= ∑𝑒𝑗2𝜋𝑛𝜑𝑁

𝑛=0

+∑𝑒−𝑗2𝜋𝑛𝜑𝑁

𝑛=0

− 1

= {

sin[𝜋(2𝑁 + 1)𝜑]

sin(𝜋𝜑); 𝜑 ∉ ℤ

2𝑁 + 1; 𝜑 ∈ ℤ

ed è riportata in Fig.E 10.5

Segnali a potenza finita. 10.4 -

Sia {𝑠𝑛} una sequenza a potenza finita. Ad essa si può formalmen-

te associare la trasformata di Fou-

rier (10.3.19) e la corrispondente

antitrasformata (10.3.20). Tuttavia

la serie bilatera che compare nella

(10.3.19) non converge in senso

ordinario. Essa può tuttavia essere

reinterpretata come una distribu-

zione.

Esempio 10.9

Sia data la sequenza costante:

𝑠𝑛 = 1

Fig.E 10.4

Fig.E 10.5

Page 222: Lezioni di TEORIA DEI SEGNALI.pdf

210 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

la sua trasformata di Fourier vale:

𝑆(𝜑) = ∑ 𝑒−𝑗2𝜋𝑛𝜑∞

𝑛=−∞

= ∑ 𝛿(𝜑 − 𝑛)

𝑛=−∞

per ottenere la quale si è applicata la formula di Poisson.

Esempio 10.10

Sia data la sequenza:

𝑠𝑛 = 𝑒±𝑗2𝜋𝑛𝜑0

la sua trasformata di Fourier vale:

𝑆(𝜑) = ∑ 𝑒−𝑗2𝜋𝑛(𝜑∓𝜑0)∞

𝑛=−∞

= ∑ 𝛿(𝜑 ∓ 𝜑0 − 𝑛)

𝑛=−∞

Esempio 10.11

Siano date le sequenze:

𝑥𝑛 = cos(2𝜋𝑛𝜑0)𝑦𝑛 = sin(2𝜋𝑛𝜑0)

poiché risulta rispettivamente:

𝑥𝑛 =1

2𝑒𝑗2𝜋𝑛𝜑0 +

1

2𝑒−𝑗2𝜋𝑛𝜑0

𝑦𝑛 =1

2𝑗𝑒𝑗2𝜋𝑛𝜑0 −

1

2𝑗𝑒−𝑗2𝜋𝑛𝜑0

tenendo conto del risultato dell'esempio precedente si ottiene per le rispettive

trasformate di Fourier:

𝑋(𝜑) =1

2( ∑ 𝛿(𝜑 − 𝜑0 − 𝑛) + ∑ 𝛿(𝜑 + 𝜑0 − 𝑛)

𝑛=−∞

𝑛=−∞

)

𝑌(𝜑) =1

2𝑗( ∑ 𝛿(𝜑 − 𝜑0 − 𝑛) − ∑ 𝛿(𝜑 + 𝜑0 − 𝑛)

𝑛=−∞

𝑛=−∞

)

Esempio 10.12

Sia data la sequenza:

𝑠𝑛(𝑎) = 𝑒−𝑎𝑛𝑢𝑛 − 𝑒

𝑎𝑛𝑢−𝑛; 𝑎 > 0

la sua trasformata di Fourier vale:

𝑆(𝜑, 𝑎) = ∑ 𝑒−𝑎𝑛𝑒−𝑗2𝜋𝑛𝜑∞

𝑛=0

− ∑ 𝑒𝑎𝑛𝑒−𝑗2𝜋𝑛𝜑0

𝑛=−∞

=1

1 − 𝑒−(𝑎+𝑗2𝜋𝜑)−

1

1 − 𝑒−(𝑎−𝑗2𝜋𝜑)

Page 223: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 10 - Segnali a Tempo Discreto - 211

Esempio 10.13

Sia data la sequenza 𝑠𝑔𝑛𝑛 cosi definita:

sgm𝑛 = 𝑢𝑛 − 𝑢−𝑛

poiché risulta (vedi Esempio 10.12):

sgm𝑛 = lim𝑎→0

𝑠𝑛(𝑎)

la sua trasformata di Fourier si può scrivere:

𝔉[sgm𝑛] = lim𝑎→0

𝑆(𝜑, 𝑎) = lim𝑎→0

(1

1 − 𝑒−(𝑎+𝑗2𝜋𝜑)−

1

1 − 𝑒−(𝑎−𝑗2𝜋𝜑)) =

=1

1 − 𝑒−𝑗2𝜋𝜑−

1

1 − 𝑒𝑗2𝜋𝜑=

−𝑗sin(2𝜋𝜑)

1 − cos(2𝜋𝜑)

Esempio 10.14

Sia data la sequenza gradino unitario un. Poiché risulta:

𝑢𝑛 =1

2+1

2sgm𝑛 +

1

2𝛿𝑛

in base agli esempi precedenti la sua trasformata di Fourier vale:

𝑈(𝜑) =1

2∑ 𝛿(𝜑 − 𝑛)

𝑛=−∞

+1

2

1 − 𝑒𝑗2𝜋𝜑

1 − cos(2𝜋𝜑)

Proprietà della trasformata di Fourier di un segnale a 10.5 - tempo discreto.

Le proprietà della trasformata di Fourier di un segnale a tempo

discreto sono riassunte nella Tabella 10.1. Per esse vengono omesse le

dimostrazioni, essendo del tutto analoghe a quelle relative alla trasfor-

mata di Fourier dei segnali a tempo continuo.

Si noti che nel campo dei segnali a tempo discreto l'operazione di

derivazione è sostituita con l'operazione differenza, la quale si distingue

in differenza in avanti (forward difference) e differenza all'indietro (backward

difference)

a) 𝛥𝑠(𝑛𝑇) = 𝑠((𝑛 + 1)𝑇) − 𝑠(𝑛𝑇) (10.5.1)

b) 𝛻𝑠(𝑛𝑇) = 𝑠(𝑛𝑇) − 𝑠((𝑛 − 1)𝑇)

Applicando la proprietà di traslazione in 𝑛, le trasformate di Fou-

rier dei segnali 𝛥𝑠(𝑛𝑇) e 𝛻𝑠(𝑛𝑇) valgono rispettivamente:

a) 𝔉[𝛥𝑠(𝑛𝑇)] = (𝑒𝑗2𝜋𝑓𝑇 − 1)𝑆(𝑓) (10.5.2)

b) 𝔉[𝛻𝑠(𝑛𝑇)] = (1 − 𝑒−𝑗2𝜋𝑓𝑇)𝑆(𝑓)

Page 224: Lezioni di TEORIA DEI SEGNALI.pdf

212 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

essendo 𝑆(𝑓) la trasformata di 𝑠(𝑛𝑇).

In maniera analoga possono definirsi le differenze seconde:

a) 𝛥2𝑠(𝑛𝑇) = 𝛥𝑠((𝑛 + 1)𝑇) − 𝛥𝑠(𝑛𝑇)

= 𝑠((𝑛 + 2)𝑇) − 2𝑠((𝑛 + 1)𝑇) + 𝑠(𝑛𝑇) (10.5.3)

Tabella 10.1

Proprietà della trasformata di Fourier di un segnale a tempo discreto

Proprietà Segnale Trasformata

Linearità ∑𝑎𝑖𝑠𝑖(𝑛𝑇)

𝑘

𝑖=1

∑𝑎𝑖𝑆𝑖(𝑓)

𝑘

𝑖=1

Segnale coniugato 𝑠∗(𝑛𝑇) 𝑆∗(−𝑓)

Trasformata co-

niugata 𝑠∗(−𝑛𝑇) 𝑆∗(𝑓)

Traslazione in n 𝑠((𝑛 − 𝑛0)𝑇) 𝑒−𝑗2𝜋𝑛0𝑓𝑇𝑆(𝑓)

Traslazione in f 𝑒𝑗2𝜋𝑛𝑓0𝑇𝑠(𝑛𝑇) 𝑆(𝑓 − 𝑓0)

Differenza in avan-

ti 𝛥𝑠(𝑛𝑇) [𝑒𝑗2𝜋𝑓𝑇 − 1]𝑆(𝑓)

Differenza all'in-

dietro 𝛻𝑠(𝑛𝑇) [1 − 𝑒−𝑗2𝜋𝑓𝑇]𝑆(𝑓)

Derivazione nel

dominio della fre-

quenza

(−𝑗2𝜋𝑛𝑇)𝑘𝑠(𝑛𝑇) 𝑑𝑘𝑆(𝑓)

𝑑𝑓𝑘

Convoluzione in 𝑛

𝑇 ∑ 𝑠1(𝑘𝑇)𝑠2((𝑛 − 𝑘)𝑇)

𝑘=−∞

𝑇 ∑ 𝑠1((𝑛 − 𝑘)𝑇)𝑠2(𝑘𝑇)

𝑘=−∞

𝑆1(𝑓) ⋅ 𝑆2(𝑓)

Convoluzione in 𝑓 𝑠1(𝑛𝑇) ⋅ 𝑠2(𝑛𝑇)

∫ 𝑆1(𝜗)𝑆2(𝜑 − 𝜗)𝑑𝜗

1

2

−1

2

∫ 𝑆1(𝜑 − 𝜗)𝑆2(𝜗)𝑑𝜗

1

2

−1

2

Page 225: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 10 - Segnali a Tempo Discreto - 213

b) 𝛻2𝑠(𝑛𝑇) = 𝛻𝑠(𝑛𝑇) − 𝛻𝑠((𝑛 − 1)𝑇)

= 𝑠(𝑛𝑇) − 2𝑠((𝑛 − 1)𝑇) + 𝑠((𝑛 − 2)𝑇)

alle quali corrispondono le rispettive trasformate:

a) 𝔉[𝛥2𝑠(𝑛𝑇)] = (𝑒𝑗4𝜋𝑓𝑇 − 2𝑒𝑗2𝜋𝑓𝑇 + 1)𝑆(𝑓)

= (𝑒𝑗2𝜋𝑓𝑇 − 1)2𝑆(𝑓)

(10.5.4)

b) 𝔉[𝛻2𝑠(𝑛𝑇)] = (1 − 2𝑒−𝑗2𝜋𝑓𝑇 + 𝑒−𝑗4𝜋𝑓𝑇)𝑆(𝑓)

= (1 − 𝑒−𝑗2𝜋𝑓𝑇)2𝑆(𝑓)

Più in generale, per le differenze di ordine 𝑘 può scriversi:

a) 𝔉[𝛥𝑘𝑠(𝑛𝑇)] = (𝑒𝑗2𝜋𝑓𝑇 − 1)𝐹[𝛥𝑘−1𝑠(𝑛𝑇)]

= (𝑒𝑗2𝜋𝑓𝑇 − 1)𝑘𝑆(𝑓)

(10.5.5)

(10.5.6) b)

𝔉[𝛻𝑘𝑠(𝑛𝑇)] = (1 − 𝑒−𝑗2𝜋𝑓𝑇)𝐹[𝛻𝑘−1𝑠(𝑛𝑇)]

= (1 − 𝑒−𝑗2𝜋𝑓𝑇)𝑘𝑆(𝑓)

Funzioni di correlazione e densità spettrali. 10.6 -

Procedendo in maniera analoga al caso dei segnali a tempo conti-

nuo, possono essere definite le funzioni di correlazione e le corrispon-

denti densità spettrali per i segnali a tempo discreto.

- Segnali periodici.

Siano 𝑠1(𝑛𝑇) e 𝑠2(𝑛𝑇) due segnali a tempo discreto, generalmente

complessi, periodici, aventi lo stesso periodo 𝑁𝑇. Le quantità

a) 𝛾12(𝑛𝑇) =1

𝑁∑𝑠1((𝑛 + 𝑘)𝑇)𝑠2

∗(𝑘𝑇)

𝑁

𝑘=1

(10.6.1)

b) 𝛾21(𝑛𝑇) =1

𝑁∑𝑠2((𝑛 + 𝑘)𝑇)𝑠1

∗(𝑘𝑇)

𝑁

𝑘=1

sono le correlazioni incrociate a tempo discreto fra i segnali 𝑠1(𝑛𝑇) e

𝑠2(𝑛𝑇). Si ha:

𝛾21(−𝑛𝑇) =1

𝑁∑𝑠2((𝑘 − 𝑛)𝑇)𝑠1

∗(𝑘𝑇)

𝑁

𝑘=1

= (10.6.2)

Page 226: Lezioni di TEORIA DEI SEGNALI.pdf

214 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

=1

𝑁(∑𝑠1(𝑘𝑇)𝑠2

∗((𝑘 − 𝑛)𝑇)

𝑁

𝑘=1

)

=1

𝑁( ∑ 𝑠1((𝑘

′ − 𝑛)𝑇)𝑠2∗(𝑘′𝑇)

𝑁−𝑛

𝑘′=1−𝑛

)

=1

𝑁(∑ 𝑠1((𝑘

′ − 𝑛)𝑇)𝑠2∗(𝑘′𝑇)

𝑁

𝑘′=1

)

= 𝛾12∗ (𝑛𝑇)

dove si è posto 𝑘′ = 𝑘 − 𝑛 e si è tenuto conto della periodicità.

Le correlazioni 𝛾12(𝑛𝑇) e 𝛾21(𝑛𝑇) sono entrambe periodiche di

periodo 𝑁𝑇; esse pertanto risultano sviluppabili in serie di Fourier. Il ge-

nerico coefficiente dello sviluppo di 𝛾12(𝑛𝑇) vale:

𝛤12𝑚 =1

𝑁∑𝛾12(𝑛𝑇)𝑒

−𝑗2𝜋𝑚𝑛

𝑁

𝑁

𝑛=1

=1

𝑁2∑(∑𝑠1((𝑛 + 𝑘)𝑇)𝑠2

∗(𝑘𝑇)

𝑁

𝑘=1

)𝑒−𝑗2𝜋𝑚𝑛

𝑁

𝑁

𝑛=1

=1

𝑁2∑𝑠2

∗(𝑘𝑇)

𝑁

𝑘=1

(∑𝑠1((𝑛 + 𝑘)𝑇)𝑒−𝑗

2𝜋𝑚𝑛

𝑁

𝑁

𝑛=1

)

=1

𝑁2∑𝑠2

∗(𝑘𝑇)𝑒𝑗2𝜋𝑚𝑘

𝑁

𝑁

𝑘=1

∑𝑠1((𝑛 + 𝑘)𝑇)𝑒−𝑗

2𝜋𝑚(𝑛+𝑘)

𝑁

𝑁

𝑛=1

=1

𝑁∑𝑠2

∗(𝑘𝑇)

𝑁

𝑛=1

𝑒𝑗2𝜋𝑚𝑘

𝑁 ⋅1

𝑁∑ 𝑠1(𝑛

′𝑇)𝑒−𝑗2𝜋𝑚𝑛′

𝑁

𝑁+𝑘

𝑛′=1+𝑘

= 𝑆1𝑚 ⋅ 𝑆2𝑚∗

(10.6.3)

avendo denotato con 𝑆1𝑚 e 𝑆2𝑚 i generici coefficienti degli sviluppi dei

segnali 𝑠1(𝑛𝑇) e 𝑠2(𝑛𝑇) rispettivamente.

In modo analogo si mostra che il generico coefficiente dello svi-

luppo di 𝛾21(𝑛𝑇) vale:

𝛤21𝑚 = 𝑆1𝑚∗ ⋅ 𝑆2𝑚 (10.6.4)

L'autocorrelazione tempo discreta si definisce come segue:

𝛾(𝑛𝑇) =1

𝑁∑𝑠((𝑛 + 𝑘)𝑇)𝑠∗(𝑘𝑇)

𝑁

𝑘=1

(10.6.5)

il cui generico coefficiente del suo sviluppo in serie di Fourier è:

Page 227: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 10 - Segnali a Tempo Discreto - 215

𝛤𝑚 = 𝑆𝑚 ⋅ 𝑆𝑚∗ = |𝑆𝑚|

2 (10.6.6)

come discende immediatamente osservando che l'autocorrelazione si

può intendere come mutua correlazione tra un segnale e se stesso.

Dalla (10.6.5)si deduce facilmente l'espressione dell'elemento

𝛾(0)

𝛾(0) =1

𝑁∑𝑠(𝑘𝑇)𝑠 ∗ (𝑘𝑇)

𝑁

𝑘=1

=1

𝑁∑|𝑠(𝑘𝑇)|2𝑁

𝑘=1

(10.6.7)

che è uguale alla potenza specifica associata al segnale a tempo discreto

periodico.

Si ha pertanto:

1

𝑁∑ |𝑠(𝑛𝑇)|2𝑁

𝑛=1

= 𝛾(0) = ∑ 𝛤𝑚

𝑁

𝑚=1

= ∑ |𝑆𝑚|2

𝑁

𝑚=1

(10.6.8)

che è la formulazione del teorema di Parseval per i segnali periodici a

tempo discreto.

- Segnali ad energia finita.

Se 𝑠1(𝑛𝑇) e 𝑠2(𝑛𝑇) sono due segnali a tempo discreto ad energia

finita, le loro correlazioni incrociate sono definite dalle:

𝛾12(𝑛𝑇) = 𝑇 ∑ 𝑠1((𝑛 + 𝑘)𝑇)𝑠2∗(𝑘𝑇)

𝑘=−∞

(10.6.9)

e

𝛾21(𝑛𝑇) = 𝑇 ∑ 𝑠2((𝑛 + 𝑘)𝑇)𝑠1∗(𝑘𝑇)

𝑘=−∞

(10.6.10)

Risulta, come è facile verificare:

𝛾21(−𝑛𝑇) = 𝛾12∗ (𝑛𝑇) (10.6.11)

La trasformata di Fourier di 𝛾12(𝑛𝑇) vale:

Page 228: Lezioni di TEORIA DEI SEGNALI.pdf

216 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝛤12(𝑓) = 𝑇 ∑ 𝛾12(𝑛𝑇)𝑒−𝑗2𝜋𝑛𝑓𝑇

𝑛=−∞

= 𝑇2 ∑ 𝑒−𝑗2𝜋𝑛𝑓𝑇 ∑ 𝑠1((𝑛 + 𝑘)𝑇)𝑠2∗(𝑘𝑇)

𝑘=−∞

𝑛=−∞

= 𝑇 ∑ 𝑠2∗(𝑘𝑇)𝑒𝑗2𝜋𝑘𝑓𝑇

𝑘=−∞

⋅ 𝑇 ∑ 𝑠1((𝑛 + 𝑘)𝑇)𝑒−𝑗2𝜋(𝑛+𝑘)𝑓𝑇

𝑛=−∞

(10.6.12)

la quale, denotando con 𝑆1(𝑓) e 𝑆2(𝑓) rispettivamente le trasformate di

Fourier dei segnali 𝑠1(𝑛𝑇) e 𝑠2(𝑛𝑇), fornisce:

𝛤12(𝑓) = 𝑆1(𝑓) ⋅ 𝑆2∗(𝑓) (10.6.13)

Analogamente si ha:

𝛤21(𝑓) = 𝑆1∗(𝑓) ⋅ 𝑆2(𝑓) (10.6.14)

L'autocorrelazione a tempo discreto è definita dalla:

𝛾(𝑛𝑇) = 𝑇 ∑ 𝑠((𝑛 + 𝑘)𝑇)𝑠∗(𝑘𝑇)

𝑘=−∞

(10.6.15)

la cui trasformata di Fourier vale:

𝛤(𝑓) = 𝑆(𝑓)𝑆∗(𝑓) = |𝑆(𝑓)|2 (10.6.16)

che costituisce l'estensione del teorema di Wiener al caso di segnali a

tempo discreto.

Ponendo 𝑛 = 0 nella (10.6.15) si ha:

𝛾(0) = 𝑇 ∑ |𝑠(𝑛𝑇)|2∞

𝑛=−∞

(10.6.17)

e di conseguenza:

𝑇 ∑ |𝑠(𝑛𝑇)|2∞

𝑛=−∞

= ∫ 𝛤(𝑓)𝑑𝑓

1

2𝑇

−1

2𝑇

= ∫ |𝑆(𝑓)|2𝑑𝑓

1

2𝑇

−1

2𝑇

(10.6.18)

che costituisce l'espressione del Teorema di Parseval per i segnali a tem-

po discreto ad energia finita.

Page 229: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 10 - Segnali a Tempo Discreto - 217

- Segnali a potenza finita.

Dati due segnali, 𝑠1(𝑛𝑇) e 𝑠2(𝑛𝑇), a tempo discreto a potenza fi-

nita, ad essi si possono associare le seguenti correlazioni incrociate:

𝑎) 𝛾12(𝑛𝑇) = 𝑇 lim𝑁→∞

1

2𝑁 + 1∑ 𝑠1((𝑛 + 𝑘)𝑇)𝑠2

∗(𝑘𝑇)

𝑁

𝑘=−𝑁

𝑏) 𝛾21(𝑛𝑇) = 𝑇 lim𝑁→∞

1

2𝑁 + 1∑ 𝑠2((𝑛 + 𝑘)𝑇)𝑠1

∗(𝑘𝑇)

𝑁

𝑘=−𝑁

(10.6.19)

Le (10.6.19), con considerazioni analoghe a quelle viste per il caso

della mutua correlazione tra segnali a tempo continuo a potenza finita, si

possono riformulare, ottenendo:

𝑎) 𝛾12(𝑛𝑇) = lim𝑁→∞

𝛾𝑁12(𝑛𝑇)

2𝑁 + 1

𝑏) 𝛾21(𝑛𝑇) = lim𝑁→∞

𝛾𝑁21(𝑛𝑇)

2𝑁 + 1

(10.6.20)

in cui 𝛾𝑁21(𝑛𝑇) e 𝛾𝑁12(𝑛𝑇) sono le mutue correlazioni associate ai cor-

rispondenti segnali troncati definiti dalla:

𝑠𝑁(𝑛𝑇) = {𝑠(𝑛𝑇); |𝑛| ≤ 𝑁0; |𝑛| > 𝑁

(10.6.21)

Seguendo una procedura analoga a quella adottata per i segnali a

tempo continuo si ottiene anche:

𝛾21(−𝑛𝑇) = 𝛾12∗ (𝑛𝑇) (10.6.22)

Le trasformate di Fourier delle funzioni di mutua correlazione ri-

spettivamente valgono:

a)

𝛤12(𝑓) = 𝑇 ∑ 𝛾12(𝑛𝑇)𝑒−𝑗2𝜋𝑛𝑓𝑇

𝑛=−∞

= 𝑇 ∑ 𝑒−𝑗2𝜋𝑛𝑓𝑇 lim𝑁→∞

𝛾𝑁12(𝑛𝑇)

2𝑁 + 1

𝑛=−∞

=

(10.6.23)

Page 230: Lezioni di TEORIA DEI SEGNALI.pdf

218 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

= 𝑇2 lim𝑁→∞

1

2𝑁 + 1∑ ∑ 𝑠1𝑁((𝑛

𝑘=−∞

𝑛=−∞

+ 𝑘)𝑇)𝑠2𝑁∗ (𝑘𝑇) 𝑒−𝑗2𝜋𝑛𝑓𝑇

= 𝑇2 lim𝑁→∞

1

2𝑁 + 1∑ 𝑠2𝑁

∗ (𝑘𝑇)𝑒𝑗2𝜋𝑘𝑓𝑇 ∑ 𝑠1𝑁((𝑛

𝑛=−∞

𝑘=−∞

+ 𝑘)𝑇) 𝑒−𝑗2𝜋(𝑛+𝑘)𝑓𝑇 = lim𝑁→∞

𝑆1𝑁(𝑓)𝑆2𝑁∗ (𝑓)

2𝑁 + 1;

b) 𝛤21(𝑓) = lim𝑁→∞

𝑆2𝑁(𝑓)𝑆1𝑁∗ (𝑓)

2𝑁 + 1

Per l'autocorrelazione a tempo discreto si ha ovviamente:

𝛾(𝑛𝑇) = lim𝑁→∞

𝛾𝑁(𝑛𝑇)

2𝑁 + 1 (10.6.24)

e la sua trasformata di Fourier vale:

𝛤(𝑓) = lim𝑁→∞

𝑆𝑁(𝑓)𝑆𝑁∗ (𝑓)

2𝑁 + 1= lim

𝑁→∞

|𝑆𝑁(𝑓)|2

2𝑁 + 1 (10.6.25)

Ponendo 𝑛 = 0 nella (10.6.24)si ha:

𝛾(0) = lim𝑁→∞

𝛾𝑁(0)

2𝑁 + 1= 𝑇 lim

𝑁→∞

1

2𝑁 + 1∑ |𝑠𝑁(𝑘𝑇)|

2

𝑘=−∞

(10.6.26)

di conseguenza:

𝑇 lim𝑁→∞

1

2𝑁 + 1∑ |𝑠𝑁(𝑘𝑇)|

2 =

𝑘=−∞

∫ 𝛤(𝑓)𝑑𝑓

1

2𝑇

−1

2𝑇

= ∫ lim𝑁→∞

|𝑆𝑁(𝑓)|2

2𝑁 + 1𝑑𝑓

1

2𝑇

−1

2𝑇

(10.6.27)

che è la formulazione del teorema di Parseval per i segnali a tempo di-

screto a potenza finita.

Page 231: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 11

TRASFORMAZIONI LINEARI DISCRETE

Studio nel dominio del tempo 11.1 -

Nei sistemi numerici i segnali che intervengono in ingresso e in

uscita sono dei segnali tempo discreti denotati con 𝑥(𝑛𝑇) e 𝑦(𝑛𝑇) rispet-

tivamente. In quel che segue è conveniente normalizzare il quanto tem-

porale 𝑇 ponendo 𝑇 = 1. Questo comporta che ci si riferisce a sequenze

numeriche 𝑥𝑛 e 𝑦𝑛 in uscita. e il sistema numerico è caratterizzato dalla

seguente trasformazione lineare:

𝑦𝑛 = 𝑆{𝑥𝑛} (11.1.1)

Come nel caso dei sistemi lineari analogici, per caratterizzare la

trasformazione 𝑆 basta esprimere il segnale in ingresso nella forma:

𝑥𝑛 = ∑ 𝑥𝑘𝛿𝑛−𝑘

𝑘=∞

(11.1.2)

essendo 𝛿𝑛 la sequenza impulsiva definita dalla:

𝛿𝑛 = {1; 𝑛 = 00; 𝑛 ≠ 0

(11.1.3)

Se la trasformazione 𝑆 è lineare, risulta:

𝑦𝑛 = ∑ 𝑥𝑘𝑆{𝛿𝑛−𝑘}

𝑘=∞

(11.1.4)

la quale, ponendo:

ℎ𝑛,𝑘 = 𝑆{𝛿𝑛−𝑘} (11.1.5)

assume la forma:

𝑦𝑛 = ∑ 𝑥𝑘

𝑘=∞

ℎ𝑛,𝑘 (11.1.6)

La sequenza ℎ𝑛,𝑘 , definita dalla (11.1.5), corrisponde alla risposta

del sistema quando al suo ingresso è applicata la sequenza impulsiva

(11.1.3) ritardata di 𝑘 passi e pertanto costituisce la cosiddetta risposta im-

Page 232: Lezioni di TEORIA DEI SEGNALI.pdf

220 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

pulsiva del sistema.

Se la trasformazione 𝑆 oltre che lineare è anche tempo invariante,

la (11.1.6) diviene:

𝑦𝑛 = ∑ 𝑥𝑘

𝑘=∞

ℎ𝑛−𝑘 = ∑ 𝑥𝑛−𝑘

𝑘=∞

ℎ𝑘 (11.1.7)

essendo:

ℎ𝑛 = 𝑆{𝛿𝑛} (11.1.8)

In sostanza, come per i sistemi a tempo continuo, il segnale in uscita da

un sistema discreto lineare e tempo invariante si ottiene dalla convolu-

zione della sequenza d’ingresso con la risposta impulsiva ℎ𝑛.

Nel caso di sistemi discreti la condizione di causalità comporta:

ℎ𝑛,𝑘 = 0 𝑝𝑒𝑟 𝑛 < 𝑘 (11.1.9)

che, nel caso di trasformazioni tempo invarianti, si semplifica nella:

ℎ𝑛 = 0 𝑝𝑒𝑟 𝑛 < 0 (11.1.10)

Per sistemi causali tempo varianti la (11.1.6) diventa:

𝑦𝑛 = ∑ 𝑥𝑘

𝑛

𝑘=∞

ℎ𝑛,𝑘 (11.1.11)

e per sistemi tempo invarianti la (I.43) si semplifica nella:

𝑦𝑛 = ∑ 𝑥𝑘

𝑛

𝑘=∞

ℎ𝑛−𝑘 =∑𝑥𝑛−𝑘

𝑘=0

ℎ𝑘 (11.1.12)

Nell'ambito dei sistemi discreti la risposta impulsiva ℎ𝑛,𝑘 può pre-

sentare una durata finita o infinita. Si ottengono così i cosiddetti sistemi

a risposta impulsiva a durata finita (sistemi FIR Finite Impulse Response) o i

sistemi a risposta impulsiva a durata infinita (sistemi IIR Infinite Impulsive

Response). Nel caso di sistemi lineari FIR causali, tempo invarianti si può

porre, senza ledere le generalità:

ℎ𝑛 = 0 𝑝𝑒𝑟 𝑛 < 0 𝑒 𝑛 > 𝑁 (11.1.13)

e questo comporta:

Page 233: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 11 - Trasformazioni Lineari Discrete. 221

𝑦𝑛 = ∑ 𝑥𝑘

𝑛

𝑘=𝑛−𝑁+1

ℎ𝑛−𝑘 = ∑ 𝑥𝑛−𝑘

𝑁−1

𝑘=0

ℎ𝑘 (11.1.14)

Si osservi che il sistema presenta una memoria finita giacchè solo 𝑁 va-

lori del segnale in ingresso contribuiscono alla determinazione dell’uscita

𝑦𝑛 . Per contro i sistemi IIR sono caratterizzati da una memoria infinita.

Un sistema discreto lineare e tempo invariante può essere caratte-

rizzato da un’equazione alle differenze del tipo:

𝑦𝑛 +∑𝑎𝑘

𝑀

𝑘=1

𝑦𝑛−𝑘 =∑𝑏𝑘

𝑁

𝑘=0

𝑥𝑛−𝑘 (11.1.15)

Il valore 𝑦𝑛 dell’uscita dipende così dagli 𝑀 valori 𝑦𝑛−1, 𝑦𝑛−2, … 𝑦𝑛−𝑀

precedenti. Un sistema di questo tipo viene denominato sistema ricorsi-

vo.

Se è:

𝑦𝑛 =∑𝑏𝑘

𝑁

𝑘=0

𝑥𝑛−𝑘 (11.1.16)

il sistema è detto non ricorsivo;.

E’ interessante osservare che la risposta impulsiva di un sistema

non ricorsivo vale:

ℎ𝑛 =∑𝑏𝑘

𝑁

𝑘=0

𝛿𝑛−𝑘 = {𝑏𝑛; 0 ≤ 𝑛 ≤ 𝑁0; 𝑎𝑙𝑡𝑟𝑜𝑣𝑒

(11.1.17)

il che significa che un sistema non ricorsivo è un sistema FIR.

Un caso interessante è costituito dal sistema retto dalla seguente

equazione alle differenze:

𝑦𝑛 +∑𝑎𝑘

𝑀

𝑘=1

𝑦𝑛−𝑘 = 𝑥𝑛 (11.1.18)

La sua risposta impulsiva è definita dalla:

ℎ𝑛 +∑𝑎𝑘

𝑀

𝑘=1

ℎ𝑛−𝑘 = 𝛿𝑛 (11.1.19)

Per ottenere la soluzione basta porre:

Page 234: Lezioni di TEORIA DEI SEGNALI.pdf

222 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

ℎ𝑛 = 𝐴𝜆𝑛 (11.1.20)

dove 𝐴 e 𝜆 sono due costanti. Sostituendo l’espressione della ℎ𝑛 nella

(11.1.19)si ottiene:

𝐴𝜆𝑛 +∑𝑎𝑘

𝑀

𝑘=1

𝐴𝜆𝑛−𝑘 = 𝐴𝜆𝑛−𝑀 (𝜆𝑀 +∑𝑎𝑘𝜆𝑀−𝑘

𝑀

𝑘=1

) = 0;

𝑛 > 0

(11.1.21)

che, dovendo essere verificata per tutti i valori di 𝑛, comporta

l’annullamento del polinomio:

𝜆𝑀 + 𝑎1𝜆𝑀−1 + 𝑎2𝜆

𝑀−2 +⋯ 𝑎𝑀 (11.1.22)

detto polinomio caratteristico del sistema. Un parametro 𝜆, che individua

una soluzione della(11.1.21), deve pertanto essere uno zero del polino-

mio caratteristico. Esistono 𝑀 zeri di detto polinomio, non necessaria-

mente distinti, che possono essere reali o complessi. Nel secondo caso,

se i coefficienti 𝑎𝑘 ∈ ℝ, gli zeri complessi si presentano in coppie coniu-

gate. Se gli zeri sono distinti la risposta impulsiva assume la forma:

ℎ𝑛 =∑𝐴𝑝

𝑀

𝑝=1

𝑧𝑝𝑛 (11.1.23)

dove z𝑝 denota il generico zero del polinomio caratteristico. Se il poli-

nomio caratteristico contiene zeri multipli, la forma della (11.1.23) deve

essere modificata. Ad esempio se z1 è uno zero di molteplicità 𝑚 e gli

altri 𝑀 −𝑚 sono semplici, si ha:

ℎ𝑛 =∑𝐴𝑝

𝑚

𝑝=1

𝑛𝑝−1𝑧1𝑛∑𝐴𝑝

𝑀

𝑝=1

𝑧𝑝𝑛 (11.1.24)

Le costanti 𝐴𝑝 che compaiono nella (11.1.23) o (11.1.24) si de-

terminano imponendo che siano nulle le condizioni iniziali e cioè:

ℎ−1 = ℎ−2 = ⋯ = ℎ−𝑀 = 0 (11.1.25)

Esempio 11.1

Per determinare la risposta impulsiva del sistema del secondo ordine se-

guente:

𝑦𝑛 = 3𝑦𝑛−1 + 4𝑦𝑛−2 + 𝑥𝑛

Page 235: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 11 - Trasformazioni Lineari Discrete. 223

basta porre 𝑥𝑛 = 𝛿𝑛. Si ha:

(*) ℎ𝑛 = 3ℎ𝑛−1 + 4ℎ𝑛−2 + 𝛿𝑛

le radici del polinomio caratteristico:

𝜆𝑛 − 3𝜆 − 4 = 0

valgono 𝑧1 = 1 e 𝑧2 = 4 , la risposta impulsiva è della forma:

ℎ𝑛 = 𝐴1(−1)𝑛 + 𝐴24

𝑛; 𝑛 ≥ 0

Per determinare le costanti 𝐴1 e 𝐴2 basta porre nella (*) 𝑛 = 0 e 𝑛 = 1.

Tenendo presente che deve essere ℎ−1 = ℎ−2 = 0, si deduce:

ℎ0 = 3ℎ−1 + 4ℎ−2 + 𝛿0 = 1

ℎ1 = 3ℎ0 + 4ℎ−1 + 𝛿1 = 3

che, tenendo conto dell’espressione della ℎ𝑛 , forniscono il seguente sistema

di equazioni:

{𝐴1 + 𝐴2 = 1;−𝐴1 + 4𝐴2 = 3;

la cui soluzione è:

𝐴1 =1

5; 𝐴2 =

4

5

Si ha di conseguenza:

ℎ𝑛 =1

5(−1)𝑛 +

4

54𝑛; 𝑛 ≥ 0

Studio nel dominio della frequenza 11.2 -

Prendendo la trasformata di Fourier della sequenza 𝑦𝑛 definita

dalla (11.1.6) si ottiene:

𝑌(𝑓) = ∑ 𝑦𝑛𝑒−𝑗2𝜋𝑛𝑓

𝑛=−∞

= ∑ 𝑒−𝑗2𝜋𝑛𝑓 ∑ 𝑥𝑘ℎ𝑛,𝑘

𝑘=∞

𝑛=−∞

(11.2.1)

che, esprimendo la sequenza d’ingresso 𝑥𝑘 mediante la sua trasformata di Fourier 𝑋(𝑓) diventa:

𝑌(𝑓) = ∑ 𝑒−𝑗2𝜋𝑛𝑓 ∑ ℎ𝑛,𝑘∫ 𝑋(𝜑)𝑒𝑗2𝜋𝑘𝜑𝑑𝜑

1

2

−1

2

𝑘=∞

𝑛=−∞

= ∫ 𝑋(𝜑)

1

2

−1

2

∑ ∑ ℎ𝑛,𝑘𝑒−𝑗2𝜋(𝑛𝑓−𝑘𝜑)

𝑘=∞

𝑛=−∞

𝑑𝜑

(11.2.2)

Denotando con:

Page 236: Lezioni di TEORIA DEI SEGNALI.pdf

224 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝐻(𝑓,−𝜑) = ∑ ∑ ℎ𝑛,𝑘𝑒−𝑗2𝜋(𝑛𝑓−𝑘𝜑)

𝑘=∞

𝑛=−∞

(11.2.3)

la trasformata bidimensionale di Fourier della risposta impulsiva ℎ(𝑛, 𝑘),

valutata in 𝑓 ed in −𝜑, si ha:

𝑌(𝑓) = ∫ 𝐻(𝑓, −𝜑)𝑋(𝜑)

1

2

−1

2

𝑑𝜑 (11.2.4)

Nel caso di trasformazioni tempo invarianti, la (11.2.3) diventa:

𝐻(𝑓,−𝜑) = ∑ ∑ ℎ𝑛−𝑘𝑒−𝑗2𝜋(𝑛𝑓−𝑘𝜑)

𝑘=∞

𝑛=−∞

= ∑ ∑ ℎ𝜈𝑒−𝑗2𝜋(𝜈𝑓−𝑘(𝜑−𝑓))

𝑘=∞

𝜈=−∞

= ∑ ℎ𝜈𝑒−𝑗2𝜋𝜈𝑓 ∑ 𝑒−𝑗2𝜋𝑘(𝑓−𝜑)

𝑘=∞

𝜈=−∞

(11.2.5)

Si osservi adesso che:

∑ ℎ𝜈𝑒−𝑗2𝜋𝜈𝑓

𝜈=−∞

= 𝐻(𝑓) (11.2.6)

è la trasformata di Fourier della risposta impulsiva del sistema, inoltre, l’uguaglianza di Poisson (5.5.8) ci permette di scrivere:

∑ 𝑒−𝑗2𝜋𝑘(𝑓−𝜑)∞

𝑘=∞

= ∑ 𝛿(𝑓 − 𝜑 −𝑚)

𝑚=∞

(11.2.7)

Quindi, se il sistema è tempo invariante possiamo ulteriormente scrive-

re:

𝐻(𝑓, −𝜑) = ∑ ℎ𝜈𝑒−𝑗2𝜋𝜈𝑓 ∑ 𝑒−𝑗2𝜋𝑘(𝑓−𝜑)

𝑘=∞

𝜈=−∞

= 𝐻(𝑓) ∑ 𝛿(𝑓 − 𝜑 −𝑚)

𝑚=∞

(11.2.8)

Che, sostituita nella (11.2.4) fornisce:

Page 237: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 11 - Trasformazioni Lineari Discrete. 225

𝑌(𝑓) = 𝐻(𝑓)∫ ∑ 𝛿(𝑓 − 𝜑 −𝑚)

𝑚=∞

𝑋(𝜑)

1

2

−1

2

𝑑𝜑

= 𝐻(𝑓) ∑ 𝑋(𝑓 − 𝑚)∫ 𝛿(𝜑 − (𝑓 − 𝑚))

1

2

−1

2

𝑑𝜑

𝑚=∞

= 𝐻(𝑓) ∑ 𝑋(𝑓 − 𝑚)⊓(𝑓 − 𝑚)∞

𝑚=∞

= 𝐻(𝑓)𝑋(𝑓)

(11.2.9)

Le funzioni 𝐻(𝑓,−𝜑) e 𝐻 (𝑓) denotano la risposta in frequenza di un sistema lineare tempo variante e tempo invariante rispettivamente. Nel caso di sistemi tempo invarianti la risposta in frequenza può essere facilmente calcolata sulla base della risposta del sistema ad un in-gresso cisoidale del tipo: 𝑥𝑛 = 𝑒𝑗2𝜋𝑛𝑓 (11.2.10)

Si ha infatti, per la (11.1.7):

𝑦𝑛 = ∑ 𝑒𝑗2𝜋(𝑛−𝑘)𝑓

𝑘=−∞

ℎ𝑘 = 𝑒𝑗2𝜋𝑛𝑓 ∑ ℎ𝑘𝑒

−𝑗2𝜋𝑘𝑓

𝑘=−∞

= 𝑒𝑗2𝜋𝑛𝑓𝐻(𝑓)

(11.2.11)

La risposta del sistema presenta la stessa forma della sollecitazione in in-gresso, l'ampiezza però dipende dalla risposta in frequenza del sistema

Page 238: Lezioni di TEORIA DEI SEGNALI.pdf
Page 239: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 12

VALUTAZIONE NUMERICA DELLA TRASFORMATA DI

FOURIER

Valutazione Numerica della Trasformata di Fourier di 12.1 - un Segnale a tempo continuo

Uno dei fondamentali problemi della Teoria dei segnali consiste

nella valutazione numerica della trasformata di Fourier 𝑆(𝑓) di un segna-

le 𝑠(𝑡) a tempo continuo e a energia finita.

A tal fine si consideri un segnale che, seppur non rigorosamente

passabasso, permetta comunque di definire un opportuno intervallo di

frequenze [−1

2𝑇,1

2𝑇] al di fuori del quale resta una frazione trascurabile

della sua energia specifica. Sotto questa ipotesi la trasformata di Fourier

del segnale si può approssimare, trascurando cioè gli effetti del ricopri-

mento spettrale, in base alla (9.1.7) utilizzando la sequenza dei suoi

campioni:

𝑆(𝑓) ≅ 𝑇⊓(𝑓𝑇) ∑ 𝑠(𝑛𝑇)𝑒−𝑗2𝜋𝑛𝑓𝑇∞

𝑛=−∞

(12.1.1)

Osseviamo che, per l’ipotesi fatta nel paragrafo precedente, se si

campionasse 𝑆(𝑓) nel dominio della frequenza, si otterebbe solo un

numero finito, diciamo 𝑁, di campioni significativamente diversi da ze-

ro, precisamente quelli ricadenti all'interno dell'intervallo [−1

2𝑇,1

2𝑇].

Il generico campione della trasformata si può esprimere mediante

la (12.1.1) nella forma:

𝑆 (𝑚

𝑁𝑇) ≅ 𝑇⊓ (

𝑚

𝑁) ∑ 𝑠(𝑛𝑇)𝑒−𝑗

2𝜋𝑚𝑛

𝑁

𝑛=−∞

(12.1.2)

dove si è implicitamente scelto un passo di campionamento pari a 1

𝑁𝑇.

Supponendo, per semplicità, di scegliere un valore dispari per 𝑁,

la precedente può essere riscritta come segue:

Page 240: Lezioni di TEORIA DEI SEGNALI.pdf

228 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

𝑆 (𝑚

𝑁𝑇) ≅ 𝑇⊓ (

𝑚

𝑁) ∑   ∑ 𝑠(𝑛𝑇)𝑒−𝑗

2𝜋𝑚𝑛

𝑁

𝑙𝑁+𝑁−1

2

𝑛=𝑙𝑁−𝑁−1

2

𝑙=−∞

(12.1.3)

la quale, effettuando la sostituzione di indice 𝑛′ = 𝑛 − 𝑙𝑁, scambiando

l'ordine delle sommatorie, e tenendo conto della periodicità del fattore

esponenziale, diventa:

𝑆 (𝑚

𝑁𝑇) ≅ 𝑇⊓ (

𝑚

𝑁) ∑ [∑ 𝑠((𝑛′ + 𝑙𝑁)𝑇)

𝑙=−∞

]

𝑁−1

2

𝑛′=−𝑁−1

2

𝑒−𝑗2𝜋𝑚𝑛′

𝑁 (12.1.4)

Si nota che la sommatoria interna è la ripetizione periodica della

sequenza 𝑠(𝑛𝑇) dei campioni del segnale effettuata con periodicità 𝑁𝑇.

È ovvio che detta ripetizione periodica è in genere, diversa da 𝑠(𝑛𝑇),

anche nell'intervallo [−𝑁−1

2𝑇,

𝑁−1

2𝑇], a causa del ricoprimento temporale

che insorge in quanto il segnale può non essere a durata rigorosamente

limitata.

Se tuttavia il segnale in esame consente di determinare un valore

della quantità 𝑁𝑇 che renda trascurabile l'effetto del ricoprimento tem-

porale, si può scrivere:

⊓ (𝑛

𝑁) ∑ 𝑠((𝑛 + 𝑙𝑁)𝑇)

𝑙=−∞

≅ ⊓(𝑛

𝑁) 𝑠(𝑛𝑇) (12.1.5)

quindi la (12.1.4) diviene:

𝑆 (𝑚

𝑁𝑇) ≅ 𝑇⊓ (

𝑚

𝑁) ∑ 𝑠(𝑛𝑇)𝑒−𝑗

2𝜋𝑚𝑛

𝑁

𝑁−1

2

𝑛=−𝑁−1

2

(12.1.6)

la quale, sfruttando l'ortogonalità delle sequenze ⊓ (𝑚

𝑁) 𝑒−𝑗2𝜋𝑚𝑛 𝑁⁄ , può

essere facilmente invertita:

𝑠(𝑛𝑇) ≅1

𝑁𝑇⊓ (

𝑛

𝑁) ∑ 𝑆 (

𝑚

𝑁𝑇) 𝑒𝑗

2𝜋𝑚𝑛

𝑁

𝑁−1

2

𝑚=−𝑁−1

2

(12.1.7)

Page 241: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier - 229

La (12.1.6) e la (12.1.7) definiscono una coppia di trasformate di-

screte di Fourier di ordine 𝑁. Esse costituiscono il punto di partenza per

valutare numericamente la trasformata e l'antitrasformata di Fourier di

un segnale a tempo continuo.

Esempio 12.1

Si consideri il segnale a tempo continuo dato dalla:

𝑠(𝑡) =⊓ (𝑡

𝑇0−1

2)

È noto che la sua trasformata di Fourier vale:

𝑆(𝑓) = 𝑇0sinc(𝑓𝑇0)𝑒−𝑗𝜋𝑓𝑇0

Tenendo presente la (12.1.5), si scelgono un passo di campionamento T ed

un valore di N tali che risulti NT T0 , Quindi la (12.1.5) vale, in questo

caso, come uguaglianza. Si avrà:

𝑠(𝑛𝑇) = {1; 0 ≤ 𝑛 ≤ 𝑀0; 𝑎𝑙𝑡𝑟𝑜𝑣𝑒

𝑀 = ⌊𝑇0𝑇⌋

D'altra parte la scelta del passo di campionamento 𝑇 incide sull'entità

dell'errore dovuto al ricoprimento spettrale.

Volendo limitare tale errore, occorre rendere sufficientemente elevata la

quantità 1 𝑇⁄ , in accordo con la (12.1.6). Scegliere un valore 𝑇 equivale ad

ipotizzare che il segnale abbia una banda 𝐵 = 1 2𝑇⁄ .

Nel caso specifico, si può procedere assumendo che il segnale abbia una

banda equivalente 𝐵𝑒 =k𝑇0⁄ (𝑘 > 1) e quindi assumere:

𝑇 ≤𝑇02𝑘

il che comporta:

𝑁 ≥ ⌈𝑇0

𝑇⌉ ≥ 2𝑘

In tali condizioni si ottiene:

𝑆 (𝑚

𝑁𝑇) = 𝑇∑ 𝑠(𝑛𝑇)𝑒−𝑗

2𝜋𝑚𝑛

𝑁 =

𝑁−1

𝑛=0

𝑇 ∑ 𝑒−𝑗2𝜋𝑚𝑛

𝑁

𝑀−1

𝑛=0

= { 𝑇𝑒−𝑗

2𝜋𝑚𝑀

𝑁 − 1

𝑒−𝑗2𝜋𝑚

𝑁 − 1; 𝑚 = −

𝑁

2,… ,−1,1, … ,

𝑁

2− 1

𝑇𝑀; 𝑚 = 0

Page 242: Lezioni di TEORIA DEI SEGNALI.pdf

230 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

il cui modulo vale:

|𝑆 (𝑚

𝑁𝑇)| =

{

𝑇 ⋅ |

𝑠𝑖𝑛 (𝜋𝑚𝑀

𝑁)

𝑠𝑖𝑛 (𝜋𝑚

𝑁)| ; 𝑚 = −

𝑁

2,… ,−1,1, … ,

𝑁

2− 1

𝑇𝑀; 𝑚 = 0

In Fig.E 12.1sono riportati gli andamenti di |𝑆 (𝑚

𝑁𝑇)| per diversi valori di

𝑁 e di 𝑇 unitamente al modulo di 𝑆(𝑓). Si noti che al crescere del parametro

𝑇 le righe dello spettro si infittiscono e l'errore tra il valore vero dello spettro

e quello stimato si riduce, in quanto la banda aumenta e si riduce di conse-

guenza l’aliasing.

Esempio 12.2

Si consideri il seguente segnale tempo continuo:

𝑠(𝑡) = 𝑢(𝑡)𝑒−𝑡

Fig.E 12.1

Page 243: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier - 231

la cui trasformata di Fourier vale:

𝑆(𝑓) =1

1 + 𝑗2𝜋𝑓

Il segnale considerato non presenta né durata né banda rigorosamente li-

mitata per cui è necessaria un'adeguata scelta di 𝑁 e 𝑇 per limitare sia l'erro-

re di ricoprimento temporale sia quello di ricoprimento spettrale.

In tal caso si può scrivere:

𝑆 (𝑚

𝑁𝑇) ≅ ∑ 𝑆(

𝑚

𝑁𝑇+𝑘

𝑇)

𝑘=−∞

; 0 ≤ 𝑚 ≤ 𝑁 − 1

e quindi in base alla (12.1.6)si ha:

𝑆 (𝑚

𝑁𝑇) ≅ 𝑇∑ 𝑠(𝑛𝑇)𝑒−𝑗

2𝜋𝑚𝑛

𝑁 = 𝑇1 − 𝑒−𝑁𝑇

1 − 𝑒−𝑗2𝜋𝑚

𝑁−𝑇; 𝑚 = 0,1,… , 𝑁 − 1

𝑁−1

𝑛=0

Fig.E 12.2

Page 244: Lezioni di TEORIA DEI SEGNALI.pdf

232 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

il cui modulo è dato dalla:

|𝑆 (𝑚

𝑁𝑇)| = 𝑇

1 − 𝑒−𝑁𝑇

√1 + 𝑒−2𝑇 − 2𝑒−𝑇𝑐𝑜𝑠 (2𝜋𝑚

𝑁)

; 𝑚 = 0,1,… , 𝑁 − 1

In Fig. E.IX.8 sono paragonati i valori delle quantità |𝑆 (𝑚

𝑁𝑇)| al variare

dei parametri 𝑁 e 𝑇 con il modulo dello spettro del segnale 𝑠(𝑡):

|𝑆(𝑓)| =1

√1 + (2𝜋𝑓)2

allo scopo di illustrare l'influenza del numero dei punti e della periodicità

nella valutazione numerica dello spettro di un segnale che non presenta né

durata né banda rigorosamente limitata.

Troncamento del segnale. Finestre temporali. 12.2 -

Un modo per eliminare gli errori di ricoprimento temporale è

quello di considerare una versione troncata del segnale 𝑠(𝑡)

𝑠𝑤(𝑡) = 𝑠(𝑡) ⋅ 𝑤(𝑡) (12.2.1)

ottenuta moltiplicando 𝑠(𝑡) per una funzione finestra temporale 𝑤(𝑡) ta-

le che risulti:

{𝑤(𝑡) = 0; |𝑡| >

𝑇02;

𝑤(0) = 1; (12.2.2)

La (12.2.1) comporta un errore nella valutazione della 𝑆(𝑓); tutta-

via se 𝑇0 si sceglie in

modo tale che i valori

del segnale 𝑠(𝑡) al di

fuori dell'intervallo

[−𝑇0/2, 𝑇0/2] siano

piccoli rispetto a quelli

assunti dal segnale al

suo interno, tale erro-

re può ritenersi trascu-

rabile.

Per rendersi

conto dell'entità di tale

Fig. 12.1 Spettro della finestra di Hanning

Page 245: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier - 233

errore basta trasformare la (12.2.1). Indicando con 𝑆𝑤(𝑓), 𝑆(𝑓) e 𝑊(𝑓)

le trasformate di 𝑠𝑤(𝑡), 𝑠(𝑡) e 𝑤(𝑡) rispettivamente si ha:

𝑆𝑤(𝑓) = 𝑆(𝑓) ∗ 𝑊(𝑓) = ∫ 𝑆(𝜗)𝑊(𝑓 − 𝜗)𝑑𝜗∞

−∞

(12.2.3)

Si osservi che la for-

ma tipica dello spettro di

ampiezza |𝑊(𝑓)| di una

funzione finestra si presenta

come indicato in Fig. 12.1,

cioè ha un lobo fondamen-

tale simmetrico rispetto

all'asse delle ordinate che in-

siste su un intervallo di am-

piezza Δ𝑓 e un insieme di

lobi laterali con ampiezze

massime via via decrescenti . Se lo spettro 𝑆(𝑓) del segnale 𝑠(𝑡) non è

continuo nel punto 𝑓0, lo spettro del segnale troncato si presenta quali-

tativamente come indicato in Fig. 12.2. Esso è cioè continuo e ha anda-

mento oscillatorio in prossimità di 𝑓0. Si può verificare che l’ampiezza

delle oscillazioni dipende dal rapporto |𝑊(𝑓𝑠)

𝑊(0)|, cioè dal livello di picco re-

lativo dei lobi secondari dello spettro di 𝑤(𝑡), mentre la transizione da

𝑆(𝑓0−) a 𝑆(𝑓0

+) si verifica in una banda la cui ampiezza è proporzionale a

𝛥𝑓. Le quantità |𝑊(𝑓𝑠)

𝑊(0)| e 𝛥𝑓 pertanto caratterizzano una funzione finestra

dato che i loro valori influenzano la precisione con cui viene approssi-

mato lo spettro.

Le caratteristiche di alcune funzioni finestra comunemente usate

sono riportate nella Tabella 12.1

Fig. 12.2 Effetto della funzione finestra sullo spet-tro di un segnale

Page 246: Lezioni di TEORIA DEI SEGNALI.pdf

234 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Tabella 12.1 Caratteristiche di alcune funzioni finestra

𝛥𝑓 |𝑊(𝑓𝑠)

𝑊(0)|

Ret

tan

gola

re

𝑤(𝑡) ⊓(𝑡

𝑇0)

2

𝑇0

0.22

-13.2 dB 𝑊(𝑓) 𝑇0sinc(𝑓𝑇0)

Bar

tle

tt 𝑤(𝑡) (1 −

|2𝑡|

𝑇0)⊓ (

𝑡

𝑇0)

4

𝑇0

0.047

-26.5 dB

𝑊(𝑓) 𝑇02sinc [

𝑓𝑇02]2

Han

nin

g 𝑤(𝑡) cos2 (𝜋𝑡

𝑇0)⊓ (

𝑡

𝑇0)

4

𝑇0

0.027

-31.5db 𝑊(𝑓)

𝑇0sinc[𝑓𝑇0]

2(1 − 𝑓2𝑇02)

Ham

min

g 𝑤(𝑡) (0,54 + 0,46cos (2𝜋𝑡

𝑇0))⊓(

𝑡

𝑇0)

4

𝑇0

0.0062

-44 dB

𝑊(𝑓) 𝑇0(−0.54 + 0.08𝑓2𝑇0

2)

(−1 + 𝑓2𝑇02)

sinc[𝑓𝑇0]

Tuke

y

𝑤(𝑡) ⊓(𝑡

𝛼𝑇0) +

(1 + cos [𝜋(2|𝑡|−𝛼𝑇𝑜)

(1−𝛼)𝑇𝑜]) ⊓ (

4|𝑡|−𝑇𝑜(1+𝛼)

2𝑇𝑜(1−𝛼))

2

4

(1 + 𝛼)𝑇0

𝑊(𝑓) 𝑇0sinc[𝑓𝑇0] + 𝛼sinc[𝑓𝛼𝑇0]

2[1 − (𝑓𝑇0(𝛼 − 1))2]

Tayl

or-

Kai

ser

𝑤(𝑡) 𝐼0 (𝜋𝛽√1 − (

2𝑡

𝑇0)2

)

𝐼0(𝜋𝛽)⊓ (

𝑡

𝑇0)

2𝛽

𝑇0

0,22𝜋𝛽

sinh(𝜋𝛽)

𝑊(𝑓) 𝑇0sinh[𝜋√𝛽2 − 𝑓2𝑇0

2]

𝐼0(𝜋𝛽)𝜋√𝛽2 − 𝑓2𝑇0

2

N. B. 𝐼0(𝑥) è la funzione di Bessel modificata di prima specie di ordine zero.

Page 247: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier - 235

La trasformata discreta di Fourier. 12.3 -

Come visto al - §. 12.1 - , le trasformate di Fourier diretta e in-

versa di un segnale a tempo continuo, possono effettuarsi mediante le

(12.1.6) e (12.1.7), purché la scelta del quanto temporale 𝑇 e del numero

dei campioni 𝑁 sia tale che gli errori di ricoprimento temporale e spet-

trale risultino trascurabili.

Usualmente le (10.3.9), vengono presentate nella forma:

a) 𝑆𝑚 = ∑ 𝑠𝑛𝑒𝑗2𝜋𝑛𝑚

𝑁

𝑁−1

𝑛=0

; 𝑚 = 0,1, … , 𝑁 − 1

(12.3.1)

b) 𝑠𝑛 =1

𝑁∑ 𝑆𝑚𝑒

𝑗2𝜋𝑛𝑚

𝑁 ;

𝑁−1

𝑚=0

𝑛 = 0,1, … , 𝑁 − 1

Queste ultime si ottengono normalizzando il quanto temporale (𝑇 = 1).

In esse si sono denotati con 𝑠𝑛 e 𝑆𝑚 i campioni del segnale e della sua

trasformata di Fourier rispettivamente.

Le (12.3.1) sono delle sequenze periodiche di periodo 𝑁, cosicché

esse possono essere prolungate al di fuori degli intervalli (0 ≤ 𝑛,𝑚 ≤

𝑁 − 1). Ciò significa che 𝑠𝑛 e 𝑆𝑚 sono uguali ai campioni di 𝑠(𝑡) e 𝑆(𝑓)

nell'insieme {0, 𝑁 − 1} ma non al di fuori di esso. Per sottolineare tale

differenza è allora opportuno denotare con ��𝑛 e ��𝑚 le sequenze periodi-

cizzate, di conseguenza le (12.3.1) possono essere riscritte nella forma:

a) ��𝑚 = ∑ ��𝑛𝑒𝑗2𝜋𝑛𝑚

𝑁

𝑁−1

𝑛=0

(12.3.2)

b) ��𝑛 =1

𝑁∑ ��𝑚𝑒

𝑗2𝜋𝑛𝑚

𝑁

𝑁−1

𝑚=0

essendo:

a) ��𝑛 = 𝑠𝑛; 0 ≤ 𝑛 ≤ 𝑁 − 1

(12.3.3) b) ��𝑚 = 𝑆𝑚; 0 ≤ 𝑚 ≤ 𝑁 − 1

Le (12.3.2), costituiscono una coppia di trasformazioni denomi-

nate trasformate (diretta e inversa) discrete di Fourier (DFT).

Denotando con ��𝑁 e ��𝑁 i vettori:

Page 248: Lezioni di TEORIA DEI SEGNALI.pdf

236 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

��𝑁 = [��0 ��1 … ��𝑁−1]

𝑇

��𝑁 = [��0 ��1 … ��𝑁−1]𝑇 (12.3.4)

e con 𝑾𝑁 la matrice:

𝑾𝑁 =

[ 1 1 … 1

1 𝑒−𝑗2𝜋

𝑁 … 𝑒−𝑗2𝜋(𝑁−1)

𝑁

… … … …

1 𝑒−𝑗2𝜋(𝑁−1)

𝑁 … 𝑒−𝑗2𝜋(𝑁−1)2

𝑁 ]

=

[ 𝑊𝑁

0 𝑊𝑁0 … 𝑊𝑁

0

𝑊𝑁0 𝑊𝑁

1 … 𝑊𝑁(𝑁−1)

… … … …

𝑊𝑁0 𝑊𝑁

(𝑁−1)… 𝑊𝑁

(𝑁−1)2

]

(12.3.5)

in cui 𝑊𝑁 = 𝑒−𝑗

2𝜋

𝑁 denota la radice 𝑁-esima dell'unità, le (12.3.2) si pos-

sono riscrivere come segue:

a)

b)

��𝑁 = 𝑾𝑁��𝑁

��𝑁 =1

𝑁𝑾𝑁

∗ ��𝑁 (12.3.6)

Confrontando le (12.3.6)si ottiene facilmente:

𝑾𝑁−1 =

1

𝑁𝑾𝑁

∗ (12.3.7)

che equivale a scrivere:

𝑾𝑁𝑾𝑁∗ = 𝑁𝑰𝑁 (12.3.8)

dove 𝑰𝑁 è la matrice unitaria di ordine 𝑁. La matrice 𝑾𝑁 è pertanto una

matrice ortogonale.

Come nel caso delle altre trasformate di Fourier, la DFT gode di

proprietà che vengono riassunte nella Tabella 12.2.

Esempio 12.3

Siano:

��1 = {

−1; 𝑛 = 02; 𝑛 = 14; 𝑛 = 2−2; 𝑛 = 3

; ��2 = {

1; 𝑛 = 0−1; 𝑛 = 12; 𝑛 = 2−3; 𝑛 = 3

due distinte sequenze periodiche di periodo 𝑁 = 4. La loro convoluzione

Page 249: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier - 237

��𝑛 =∑ ��1,𝑘 ��2,(𝑛−𝑘)

3

𝑘=0

si valuta facilmente tenendo conto delle proprietà di periodicità delle se-

quenze.

Si ha infatti, per 𝑛 = 0:

��0 = ∑ ��1,𝑘 ��2,(−𝑘)

3

𝑘=0

dove è:

{

��2,0 = 1;

��2,(−1) = ��2,(4−1) = ��2,3 = −3;

��2,(−2) = ��2,(4−2) = ��2,2 = 2;

��2,(−3) = ��2,(4−3) = ��2,1 = −1;

per cui risulta:

��1 = −1 − 6 + 8 + 2 = 3

In modo analogo, per 𝑛 = 1, è:

��1 = ∑ ��1,𝑘 ��2,(1−𝑘)

4

𝑘=0

con:

{

��2,(1−0) = ��2,(1) = −1;

��2,(1−1) = ��2,(0) = 1;

��2,(1−2) = ��2,(−1) = ��2,(4−1)=��2,(3) = −3;

��2,(1−3) = ��2,(−2) = ��2,(4−2)=��2,(2) = 2;

Si ha:

��1 = 1 + 2 − 12 − 4 = −13

Per 𝑛 = 2 è:

��2 = ∑ ��1,𝑘 ��2,(2−𝑘)

3

𝑘=0

con

{

��2,(2−0) = ��2,2 = 2;

��2,(2−1) = ��2,1 = −1;

��2,(2−2) = ��2,0 = 1;

��2,(2−3) = ��2(−1) = ��2(4−1) = ��2,3 = −3;

È quindi:

��2 = −2 − 2 + 4 + 6 = 6

Page 250: Lezioni di TEORIA DEI SEGNALI.pdf

238 Lezioni di Teoria dei Segnali - Analisi dei Segnali Determinati -

Si ha infine, per 𝑛 = 3:

��3 = ∑ ��1𝑘 ��2,(3−𝑘)

4

𝑘=0

Si ha:

{

��2,(3−0) = ��2,3 = −3;

��2,(3−0) = ��2,2 = 2;

��2,(3−2) = ��2,1 = −1;

��2,(3−3) = ��2,0 = 1;

e quindi:

��3 = 3 + 4 − 4 − 2 = 1

In definitiva risulta:

�� = {

3; 𝑛 = 0−13; 𝑛 = 16; 𝑛 = 21; 𝑛 = 3

Page 251: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 12 - Valutazione Numerica della Trasformata di Fourier - 239

Tabella 12.2

Proprietà della DFT

Proprietà Segnale Coefficiente

Linearità ∑𝑎𝑖 ��𝑖𝑛

𝑘

𝑖=1

∑𝑎𝑖��𝑖𝑚

𝑘

𝑖=1

Segnale coniugato ��𝑛∗ ��−𝑚

Trasformata coniu-

gata 𝑠𝑑∗(−𝑛) 𝑆𝑑

∗(𝑚)

Traslazione in 𝑛 ��𝑛−𝑛0 𝑒−𝑗2𝜋𝑛0𝑚

𝑁 ��𝑚

Traslazione in 𝑚 𝑒𝑗2𝜋𝑛𝑚0

𝑁 ��𝑛 ��𝑚−𝑚0

Differenza in avanti

in 𝑛 ��𝑛+1 − ��𝑛 [𝑒𝑗

2𝜋𝑚

𝑁 − 1]��𝑚

Differenza all'indie-

tro in 𝑛 ��𝑛 − ��𝑛−1 [1 − 𝑒−𝑗

2𝜋𝑚

𝑁 ]��𝑚

Differenza in avanti

in 𝑚 (𝑒−𝑗

2𝜋𝑛

𝑀 − 1) ��𝑛 ��𝑚+1 − ��𝑚

Differenza all'indie-

tro

in 𝑚

(1 − 𝑒𝑗2𝜋𝑛

𝑁 ) ��𝑛 ��𝑚 − ��𝑚−1

Convoluzione in 𝑛

∑��1𝑘 ��2(𝑛−𝑘)

𝑁−1

𝑘=0

=∑ ��1(𝑛−𝑘)��2𝑘

𝑁−1

𝑘=0

��1𝑚��2𝑚

Convoluzione in 𝑚 ��1𝑛��2𝑛

1

𝑁∑ ��1𝑘��2(𝑚−𝑘)

𝑁−1

𝑘=0

=1

𝑁∑ ��1(𝑚−𝑘)��2𝑘

𝑁−1

𝑘=0

Page 252: Lezioni di TEORIA DEI SEGNALI.pdf
Page 253: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 13

RICHIAMI DI TEORIA DELLA PROBABILITÀ

Lo spazio dei risultati. Gli eventi. 13.1 -

Spesso nella realtà ci s’imbatte in fenomeni i cui esiti non posso-

no essere esattamente previsti, basti pensare all'estrazione del biglietto

vincente di una lotteria, o al numero di chiamate in arrivo in una centra-

le telefonica nel corso di un'ora della giornata. Tuttavia se, osservando

ripetutamente il fenomeno, si prende nota dei risultati, ci si accorge che,

nella quasi totalità dei casi, essi obbediscono ad una certa “regolarità stati-

stica ”, nel senso che il rapporto tra le volte in cui si verifica un determi-

nato risultato e il numero totale d’osservazioni tende a stabilizzarsi at-

torno ad un dato valore al crescere di queste ultime. Così, ad esempio, se

da un'urna contenente palline nere e bianche si è estratta nel 90% dei ca-

si una pallina bianca, e nel restante 10%, una nera, si è indotti a ritenere

che l'evento: “estrazione di una pallina bianca ” abbia una maggiore

probabilità di verificarsi dell'evento: “estrazione di una pallina nera ”, o

che è lo stesso che nell’urna vi siano molte più palline bianche che nere.

Si è così portati ad associare ad ogni evento casuale una certa

probabilità che esso si manifesti. Tuttavia, per definire correttamente il

concetto di probabilità associato ad un evento casuale, occorre richiama-

re alcune nozioni fondamentali concernenti il cosiddetto spazio di probabi-

lità.

Per schematizzare il comportamento di un fenomeno aleatorio è

opportuno introdurre il concetto di esperimento casuale che consiste in

un procedimento di osservazione di risultati, ottenuti ripetendo la mede-

sima prova tutte le volte che si voglia. Ad esempio nell'esperimento ca-

suale lancio di una moneta, i possibili risultati osservabili sono testa (T )

e croce (C ). Qualcuno potrebbe osservare che la casualità del risultato

nel lancio della moneta è in realtà dovuto all’imperizia del lanciatore.

Si consideri un esperimento casuale e sia 휁 un suo possibile risul-

tato. L'insieme Ω costituito da tutti i risultati che si possono manifestare

prende il nome di spazio dei risultati.

Nell'esempio precedente del lancio di una moneta si ha:

Page 254: Lezioni di TEORIA DEI SEGNALI.pdf

242 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Ω = {𝑇, 𝐶} (13.1.1)

Nel lancio di un dado, lo spazio dei risultati è costituito dall'insieme del-

le sei facce e si ha:

Ω = {𝑓1, 𝑓2, 𝑓3, 𝑓4, 𝑓5, 𝑓6} (13.1.2)

Per studiare un esperimento casuale è opportuno identificare una

classe di sottoinsiemi dello spazio dei risultati, (cioè un insieme di sot-

toinsiemi dello spazio dei risultati) il generico elemento di tale classe

viene chiamato evento. Un evento 𝐸 si dice verificato tutte le volte che

l'esperimento casuale da luogo ad un risultato 휁 che appartiene ad 𝐸. La

scelta della classe, seppure nel rispetto di alcune proprietà che vedremo

più avanti, non é obbligata e dipende da quali aspetti dell’esperimento si

intendono evidenziare.

Ad esempio, nel caso del lancio del dado, se si ha interesse al

punteggio della faccia superiore, si devono necessariamente assumere

come eventi gli insiemi contenenti i singoli risultati; mentre se si è in-

teressati solo al fatto che il risultato sia pari o dispari ci si può limitare a

prendere in considerazione gli eventi:

E𝑝 = {𝑓2, 𝑓4, 𝑓6}; E𝑑 = {𝑓1, 𝑓3, 𝑓5}; (13.1.3)

L'intero spazio dei risultati 𝛺 è un evento, come pure lo è l'in-

sieme vuoto ∅. Nel primo caso si parla di evento certo, poiché l'evento

E = 𝛺 si manifesta ogniqualvolta si compie l'esperimento; nel secondo si

parla di evento impossibile, dato che l'evento E = ∅ non si può manife-

stare.

Agli eventi si può applicare l'algebra degli insiemi ed in particolare

le note operazioni di unione, intersezione, e complementazione (Fig.

13.1)

Fig. 13.1 – Da sinistra: unione, intersezione complementazione.

Page 255: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 13 - Richiami di Teoria della Probabilità - 243

Due eventi si dicono disgiunti o incompatibili quando il manifestarsi

dell'uno implica il non manifestarsi dell'altro e viceversa, in altre parole

se la loro intersezione è l'evento impossibile:

𝐸1 ∩ 𝐸2 = ∅ (13.1.4)

Si supponga adesso di ripetere 𝑁 volte un certo esperimento ca-

suale e sia 𝛥𝑁 il numero di volte in cui un dato evento E si è verificato.

La quantità lim𝑁→∞

𝛥𝑁

𝑁 è detta probabilità associata all'evento E:

Pr{𝐸} = lim𝑁→∞

𝛥𝑁

𝑁 (13.1.5)

In altre parole per probabilità di un evento s’intende il limite della “fre-

quenza relativa” 𝛥𝑁

𝑁 al tendere all'infinito del numero di ripetizioni

dell’esperimento.

Essendo necessariamente 0 ≤ 𝛥𝑁 ≤ 𝑁 risulta:

0 ≤ Pr{E} ≤ 1 (13.1.6)

Nel caso dell'evento certo, essendo 𝛥𝑁 = 𝑁, si ha

Pr{Ω} = 1 (13.1.7)

Infine, se gli eventi E1 ed E2 sono disgiunti, dall’ovvia condizio-

ne:

𝛥𝑁E1∪E2 = 𝛥𝑁E1 + 𝛥𝑁E2 (13.1.8)

segue:

Pr{E1 ∪ E2} = Pr{E1} + Pr{E2} (13.1.9)

Si osservi che, purtroppo, poiché in ogni esperimento fisico il

numero delle prove, per quanto grande, non può mai essere infinito, il

limite Pr{E} non può pertanto essere calcolato, né si può affermare che

esso esista. Per questo motivo tale definizione, per quanto intuitiva, non

può essere presa in considerazione come base per lo sviluppo di una

teoria matematica della probabilità. È quindi necessario definire il con-

cetto di probabilità per via assiomatica, prescindendo da quello di fre-

quenza relativa.

L’approccio in termini di frequenza relativa, va tuttavia tenuto in

considerazione, in quanto, in molti casi, esso si rivela utile nella giu-

Page 256: Lezioni di TEORIA DEI SEGNALI.pdf

244 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

stificazione intuitiva, di alcuni sviluppi teorici la cui dimostrazione sa-

rebbe inutilmente onerosa.

Lo spazio di probabilità. 13.2 -

Si consideri lo spazio dei risultati Ω di un esperimento casuale, ad

esso si associ una classe 𝓔 di suoi sottoinsiemi i cui elementi vengono

chiamati eventi. Al generico evento E si associ un numero Pr{E}, detto

probabilità dell'evento, che soddisfi le seguenti proprietà:

a) 0 ≤ Pr{E} ≤ 1

(13.2.1)

b) Pr{Ω} = 1

c) E1 ∩ E2 = ∅ ⇒ Pr{E1 ∪ E2} = Pr{E1} + Pr{E2}

c’) E𝑙 ∩ E𝑘 = ∅ ∀ 𝑙 ≠ 𝑘 ⇒ Pr{ ∪ E𝑖∞

𝑖=1} =∑Pr{E𝑖}

𝑖=1

In altre parole la probabilità associata all'evento 𝐸 deve assumere

valore non negativo e non maggiore di 1; inoltre essa deve godere della

proprietà additiva rispetto all'unione di eventi disgiunti. La probabilità

dell'evento certo si pone uguale ad 1.

La (13.2.1)c’ deve valere in alternativa alla (13.2.1)c, nel caso in

cui la classe 𝓔 contenga un numero infinito di elementi.

Quanto sopra esposto, equivale ad affermare che la probabilità

Pr{⋅} è un'applicazione 𝓔 →Pr[0,1].

Va precisato che la classe 𝓔 degli eventi non può essere scelta in

modo totalmente arbitrario; essa deve, infatti, soddisfare le seguenti

proprietà:

a) E ∈ 𝓔 ⇒ E𝑐 ∈ 𝓔

(13.2.2) b) 𝐸1, 𝐸2 ∈ 𝓔 ⇒ 𝐸1 ∪ 𝐸2 ∈ 𝓔

b’) 𝐸𝑖 ∈ 𝓔 ⇒ ∪ 𝐸𝑖∞

𝑖=1∈ 𝓔

Dove la proprietà (13.2.2)b’ vale in alternativa la (13.2.2)b

se la classe 𝓔 contiene infiniti elementi.

Dalle (13.2.2) discende facilmente:

∅ ∈ 𝓔; Ω ∈ 𝓔; (13.2.3)

Page 257: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 13 - Richiami di Teoria della Probabilità - 245

La proprietà (13.2.2)a è intuitivamente giustificata dal fatto che se

ad un certo evento è associata una probabilità, resta implicitamente de-

finita la probabilità che l'evento non si sia verificato, cioè che l'esperi-

mento casuale dia luogo ad un qualche risultato che non appartiene

all'evento considerato. Pertanto l'insieme di detti risultati deve a sua vol-

ta costituire un evento.

In conclusione si dice che si è definito uno spazio di probabilità

𝕊 se si è assegnato:

- un insieme di risultati Ω (spazio dei risultati):

- una classe 𝓔 di sottoinsiemi di Ω (eventi) che soddisfi le (13.2.2));

- un'applicazione 𝓔 →Pr[0,1] definita su 𝓔 (probabilità) che soddisfi le

(13.2.1).

Ciò viene di norma sintetizzato dalla notazione:

𝕊=(Ω,𝓔,𝑃𝑟) (13.2.4)

Si osservi che definire uno spazio di probabilità significa sempli-

cemente associare una particolare misura ad una classe di sottoinsiemi

dell'insieme di risultati. Le proprietà (13.2.2) cui deve soddisfare la classe

𝓔 sono infatti le stesse già viste nel CAPITOLO - 1 con riferimento alla

misura degli insiemi. Inoltre l'applicazione Pr{⋅} soddisfa tutte le pro-

prietà richieste ad una misura su una classe di insiemi.

È opportuno ribadire che non tutti i sottoinsiemi di Ω sono ne-

cessariamente eventi. Gli eventi sono soltanto i sottoinsiemi di Ω appar-

tenenti alla classe 𝓔, quindi misurabili secondo la misura Pr{⋅}.

Dagli assiomi (13.2.1) discendono facilmente le seguenti proprie-

tà:

- Gli eventi ∅ e Ω sono manifestamente disgiunti, pertanto in base alla

(13.2.1)c si può scrivere:

Pr{∅ ∪ 𝛺} = Pr{∅} + Pr{𝛺} (13.2.5)

dalla quale, notando che è:

∅ ∪ Ω = Ω (13.2.6)

consegue:

Pr{∅} = 0 (13.2.7)

Ciò significa che la probabilità associata all'evento impossibile è nulla.

Page 258: Lezioni di TEORIA DEI SEGNALI.pdf

246 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

- Più in generale essendo E𝑐 ed E, disgiunti e poiché E𝑐 ∪ E = 𝛺 ri-

sulta:

Pr{E𝑐 ∪ E} = Pr{E𝑐} + Pr{E} = Pr{Ω} = 1 (13.2.8)

Discende:

Pr{E𝑐} = 1 − Pr{E} (13.2.9)

Pertanto la probabilità associata al complementare di un evento E è il

complemento ad 1 della probabilità associata ad E.

- Dati E1 e E2, l'evento E1 può essere scomposto nei due eventi di-

sgiunti (v. Fig.13.2) E1 ∩ E2 e E1 ∩ E2𝑐 . Risulta quindi:

a) Pr{E1} = Pr{E1 ∩ E2} + Pr{E1 ∩ E2𝑐}

(13.2.10) b) Pr{E2} = Pr{E1 ∩ E2} + Pr{E1

𝑐 ∩ E2}

sommate termine a termine le (13.2.10)forniscono:

Pr{E1} + Pr{E2}

= 2Pr{E1 ∩ E2} + Pr{E1 ∩ E2𝑐} + Pr{E1

𝑐 ∩ E2} (13.2.11)

Poiché gli eventi E1 ∩ E2, E1 ∩ E2𝑐 e E1

𝑐 ∩ E2

sono disgiunti e la loro unione vale E1 ∪ E2, si

ha:

cosicché dalle precedenti si deduce facilmente:

Pr{E1 ∪ E2} = Pr{E1} + Pr{E2} − Pr{E1 ∩ E2} (13.2.13)

che costituisce una generalizzazione della proprietà (13.2.1)c al caso di

eventi non disgiunti (vedi Fig.13.2).

Esempio 13.1

Un calcolatore cercherà di collegarsi per dieci minuti, a partire da un

istante a caso di una data ora, ad un server. Il quale, in un istante a caso di

quella stessa ora, verrà spento per subire un intervento di manutenzione.

Quanto dovrà durare al più l’intervento di manutenzione affinché vi sia una

probabilità maggiore o uguale al 50% che il collegamento vada a buon fine?

Pr{E1 ∪ E2}

= Pr{E1 ∩ E2} + Pr{E1 ∩ E2𝑐}

+ Pr{E1𝑐 ∩ E2}

(13.2.12)

Fig.13.2 – Partizione dell’u-nione in eventi disgiunti.

Page 259: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 13 - Richiami di Teoria della Probabilità - 247

*****

Come risultato dell’esperimento casua-

le, si può assumere la coppia degli istanti t1

in cui inizia la trasmissione e t2 d’inizio

dell’intervento di manutenzione. L’insieme

dei risultati si può quindi rappresentare

mediante un quadrato di lato 60 minuti

(vedi Fig.E 13.1). Gli eventi sono rappre-

sentabili mediante sottoinsiemi di punti del

quadrato. La probabilità di un generico

evento, data la pura casualità di t1 e t2, è da-

ta dal rapporto tra l’area del sottoinsieme e l’area del quadrato.

Osserviamo che il collegamento andrà a buon fine se la manutenzione si

è già conclusa quando il calcolatore si connette al server ovvero se la manu-

tenzione inizia dopo che il calcolatore ha finito di trasmettere. Detta T la du-

rata dell’intervento di manutenzione le eventualità appena descritte si tradu-

cono nelle disuguaglianze:

𝑡2 + 𝑇 ≤ 𝑡1

𝑡1 + 10 ≤ 𝑡2

le quali individuano i due eventi incompatibili E1 e E2 evidenziati in figura

Fig.E 13.1.

L’evento d’interesse è quindi costituito dall’unione dei due eventi in que-

stione e, per quanto detto sopra, la sua probabilità vale:

𝑃𝑟{E1 ∪ E2} =1250+

(60−𝑇)2

2

3600

Il valore di 𝑇 si ottiene quindi risolvendo la disequazione PrE1E2 ≥ .

Si ha:

𝑇2 − 120𝑇 + 2500 ≥ 0

Che è soddisfatta all’esterno dell’intervallo (10(6 − √11), 10(6 +

√11)) considerato che l’estremo superiore di detto intervallo è maggiore di

60 la soluzione è:

𝑇 ≤ 10(6 − √11) ≅ 26,83𝑚𝑖𝑛 ≡ 26′50″

Probabilità condizionate - Formula di Bayes - Teore-13.3 - ma delle probabilità composte.

Siano E1 ed E2 due eventi associati ad un esperimento casuale, e

si denotino rispettivamente con 𝛥𝑁E1 e 𝛥𝑁E1∩E2

il numero di volte che,

Fig.E 13.1

Page 260: Lezioni di TEORIA DEI SEGNALI.pdf

248 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

su un totale di 𝑁 ripetizioni dell'esperimento casuale, si manifestano gli

eventi E1 e E1 ∩ E2. Dall’uguaglianza:

𝛥𝑁E1∩E2𝑁

=𝛥𝑁E1∩E2𝛥𝑁E1

⋅𝛥𝑁E1𝑁

(13.3.1)

si ottiene, passando al limite per 𝑁 → ∞

Pr{E1 ∩ E2} = Pr{E2|E1}Pr{E1} (13.3.2)

dove:

Pr{E2|E1} = lim𝑁→∞

𝛥𝑁E1∩E2𝛥𝑁E1

(13.3.3)

Osservando che 𝛥𝑁E1∩E2

𝛥𝑁E1

rappresenta il rapporto fra il numero di

volte in cui, in un totale di 𝑁 ripetizioni dell'esperimento casuale, si veri-

fica l'evento E1 ∩ E2 e il numero di volte con cui si verifica l'evento E1,

la Pr{E2|E1} può essere interpretata come la probabilità che si verifichi

l'evento E2 sotto l'ipotesi che E1 sia soddisfatto. Per questo motivo

Pr{E2|E1} è detta probabilità dell'evento E2 condizionata all’evento E1.

In modo analogo può scriversi:

Pr{E1 ∩ E2} = Pr{E1|E2}𝑃𝑟{E2} (13.3.4)

dove Pr{E1|E2} denota la probabilità che si manifesti E1 atteso che E2

sia verificato.

Eguagliando i secondi membri delle (13.3.2) e (13.3.4) si ottiene:

Pr{E1|E2} = Pr{E2|E1}Pr{E1}

Pr{E2} (13.3.5)

nota come formula di Bayes. Essa stabilisce la relazione tra le probabilità

condizionate e quelle non condizionate degli eventi E1 e E2.

Se risulta:

Pr{E1|E2} = Pr{E1}, o Pr{E2|E1} = Pr{E2} (13.3.6)

cioè se la probabilità con cui si manifesta E1 (E2) è indipendente dalla

circostanza che E2 (E1) sia verificato, i due eventi si dicono statisticamente

indipendenti. Pertanto, in base alle (13.3.2) e (13.3.4) si ha:

Pr{E1 ∩ E2} = Pr{E1}Pr{E2} (13.3.7)

Page 261: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 13 - Richiami di Teoria della Probabilità - 249

La probabilità dell'intersezione di due eventi indipendenti si ridu-

ce cioè semplicemente al prodotto delle probabilità associate ai singoli

eventi. Ci si convince facilmente che due eventi disgiunti aventi entram-

bi probabilità non nulla di verificarsi non possono essere statisticamente

indipendenti.

Esempio 13.2

Nell’esperimento consistente nel lancio

di due dadi si consideri l’evento E1:“il risul-

tato del lancio del primo dado è la faccia

tre” e l’evento E2: “il risultato del lancio

del secondo dado è la faccia quattro”. Si ve-

rifichi che i due eventi sono statisticamente

indipendenti.

Lo spazio dei risultati dell’esperimento

considerato é costituito da 36 elementi (tutte

le possibili coppie ordinate di risultati).

L’evento E1 è dato da:

E1 = {(𝑓3, 𝑓1), (𝑓3, 𝑓2), (𝑓3, 𝑓3), (𝑓3, 𝑓4), (𝑓3, 𝑓5), (𝑓3, 𝑓6)}

la sua probabilità vale 1/6. L’evento E2 è dato da:

E2 = {(𝑓1, 𝑓4), (𝑓2, 𝑓4), (𝑓3, 𝑓4), (𝑓4, 𝑓4), (𝑓5, 𝑓4), (𝑓6, 𝑓4)}

anche la sua probabilità vale 1/6.

L’evento E1 ∩ E2{(𝑓1, 𝑓2)} ha probabilità 1/36 di verificarsi. Poiché

risulta anche Pr(E1)Pr(E2)36 i due eventi in questione sono sta-

tisticamente indipendenti.

Si consideri una famiglia al più numerabile {E𝑖} di sottoinsiemi di

Ω a due a due disgiunti, tale che ⋃E𝑖 = Ω. Un qualunque evento si può

scrivere (v. Fig. 13.3):

E = ∪ (𝐸 ∩ 𝐸𝑖)∞

𝑖=1 (13.3.8)

Essendo:

(E ∩ E𝑖) ∩ (E ∩ E𝑗) = ∅ ∀𝑖 ≠ 𝑗 (13.3.9)

si ha:

𝑃𝑟{E} = ∑Pr{E ∩ E𝑖}

𝑖=1

(13.3.10)

Fig. 13.3 - Teorema delle pro-babilità composte.

Page 262: Lezioni di TEORIA DEI SEGNALI.pdf

250 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

che, utilizzando la (13.3.2), fornisce:

Pr{E} = ∑Pr{E|E𝑖}Pr{E𝑖}

𝑖=1

(13.3.11)

nota come teorema delle probabilità composte.

Esempio 13.3

Un ricevitore si connette casualmente con una di tre sorgenti di segnali

𝑆1, 𝑆2 e 𝑆3 che emettono due messaggi 𝐴 e 𝐵 secondo lo schema sotto ripor-

tato:

𝑆1 ⇒ {𝐴; 𝑃𝑟{𝐴} =

7

10

𝐵; 𝑃𝑟{𝐵} =3

10

; 𝑆2 ⇒ {𝐴; 𝑃𝑟{𝐴} =

1

2

𝐵; 𝑃𝑟{𝐵} =1

2

𝑆3 ⇒ {𝐴; 𝑃𝑟{𝐴} =

3

5

𝐵; 𝑃𝑟{𝐵} =2

5

;

- Supposto che il ricevitore riceva il messaggio 𝐴 qual è la probabilità che

esso provenga dalla sorgente 𝑆3?

- Se al ricevitore perviene il messaggio B qual è la probabilità che esso

provenga dalla sorgente S3?

*****

Lo spazio dei risultati è costituito dal prodotto cartesiano tra l’insieme

delle sorgenti e l’insieme dei messaggi ricevuti:

Z = {(𝑆1, 𝐴), (𝑆1, 𝐵), (𝑆2, 𝐴), (𝑆2, 𝐵), (𝑆3, 𝐴), (𝑆3, 𝐵)}

L’evento “È stato ricevuto il messaggio 𝐴” è il sottoinsieme:

E𝐴 = {(𝑆1, 𝐴), (𝑆2, 𝐴), (𝑆3, 𝐴)}

L’evento “È connessa 𝑆3” è il sottoinsieme:

E𝑆3 = {(𝑆3, 𝐴), (𝑆3, 𝐵)}

La prima probabilità richiesta è data dalla probabilità condizionata

Pr{𝐸𝑆3| 𝐸𝐴} la quale, in base alla formula di Bayes, vale:

Pr{E𝑆3|E𝐴} =Pr{E𝐴|E𝑆3}Pr{E𝑆3}

Pr{E𝐴}

Supponendo che le connessioni del ricevitore con le tre sorgenti av-

vengano con eguale probabilità, è facile riconoscere che si ha:

Pr{E𝐴|E𝑆3} =3

5; Pr{E𝑆3} =

1

3

D'altra parte la probabilità che al ricevitore si presenti il messaggio 𝐴,

dato che gli eventi 𝐸𝑆1 , 𝐸𝑆2 ed 𝐸𝑆3 sono disgiunti, vale:

Page 263: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 13 - Richiami di Teoria della Probabilità - 251

Pr{E𝐴} = Pr{E𝐴|E𝑆1}Pr{E𝑆1} + Pr{E𝐴|E𝑆2}Pr{E𝑆2} + Pr{E𝐴|E𝑆3}Pr{E𝑆3}

=7

10

1

3+1

2

1

3+3

5

1

3=3

5

Risulta allora:

 Pr{E𝑆3|E𝐵} =

2

5

1

32

5

=1

3

Procedendo in modo analogo si ha per il secondo quesito posto:

Pr{E𝑆3|E𝐵} =Pr{E𝐵|E𝑆3}Pr{E𝑆3}

Pr{E𝐵}

Essendo

Pr{E𝐵|E𝑆3} =2

5

e

  Pr{E𝐵} = Pr{E𝐵|E𝑆1}Pr{E𝑆1} + Pr{E𝐵|E𝑆2}𝑃𝑟{E𝑆2} + Pr{E𝐵|E𝑆3}𝑃𝑟{E𝑆3} =2

5

= 1 − Pr{E𝐴}

risulta:

Pr{E𝑆3|E𝐵} =1

3

Inoltre essendo Pr{𝐸𝑆3| 𝐸𝐵} = Pr{𝐸𝑆3| 𝐸𝐴}, si conclude che la deci-

sione a favore della terza sorgente non dipende dal messaggio ricevuto.

Page 264: Lezioni di TEORIA DEI SEGNALI.pdf
Page 265: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 14

VARIABILI ALEATORIE

Variabili aleatorie monodimensionali. 14.1 -

Si consideri un esperimento casuale caratterizzato da uno spazio

di probabilità:

𝕊=(Ω,ℰ,𝑃𝑟) (14.1.1)

e sia 𝑋(⋅) un'applicazione che fa corrispondere ad ogni risultato 휁 ∈ Ω

un numero reale. Il dominio di tale applicazione è quindi l'intero spazio

dei risultati, il suo codominio è il campo reale ℝ.

Se ∀𝑥 ∈ ℝ il sottoinsieme E𝑥 = 𝑋−1(]−∞, 𝑥]), composto cioè da

tutti i risultati a cui, tramite l'applicazione 𝑋(⋅), corrisponde un valore

non superiore a 𝑥, costituisce un evento, cioè se:

E𝑥 = {휁 / 𝑋(휁) ≤ 𝑥} ∈ ℰ (14.1.2)

si dice che 𝑋11 è una variabile aleatoria associata all'esperimento casuale.

Ad esempio se nell'esperimento casuale “lancio di una moneta”, as-

sumendo ℰ={∅, {testa}, {croce}, Ω}, si definisce l'applicazione 𝑋(⋅) che as-

socia al risultato “testa” il valore 0 e al risultato “croce” il valore 1, si è de-

finita una variabile aleatoria. Infatti:

- ogni semiretta ]−∞, 𝑥]con 𝑥 < 0 ha come controimmagine nell'insieme

dei risultati l'insieme vuoto che è un evento;

- ogni semiretta ]−∞, 𝑥] con 0 ≤ 𝑥 < 1 ha come controimmagine l'in-

sieme E𝑥 = {testa} ∈ ℰ;

- ogni semiretta ]−∞, 𝑥] con 𝑥 ≥ 1 ha come controimmagine l'insieme Ω

che è anch'esso un evento.

In sostanza definire una variabile aleatoria equivale a costruire un

nuovo esperimento casuale che ha come spazio dei risultati l'insieme ℝ,

e come classe di eventi ℬ la classe minima che contiene tutte le semirette

del tipo ]−∞, 𝑥] e che soddisfa le (13.2.2). Detta classe coincide con

11 Il fatto che la variabile aleatoria venga abitualmente indicata con una lettera maiuscola ad es.

𝑋 e non con 𝑋(휁) è un’ulteriore motivo di confusione per lo studente che dimentica facilmente

che malgrado venga chiamata variabile, si tratta di un’applicazione.

Page 266: Lezioni di TEORIA DEI SEGNALI.pdf

254 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

quella costituita da tutti i possibili sottoinsiemi di ℝ che siano misurabili

secondo Lebesgue (la classe di Borel). Gli insiemi in essa contenuti sono

detti insiemi di Borel. Detto B il generico elemento di tale classe, la proba-

bilità ad esso associata è uguale a quella della sua controimmagine

𝑋−1(B), che, in virtù della definizione di variabile aleatoria, è certamente

un evento nello spazio di probabilità 𝕊. In altri termini, la probabilità

dell'evento B ⊆ ℝ vale Pr{𝑋−1(B)}.

In conclusione definire una variabile aleatoria su un esperimento

casuale equivale a definire una misura sulla classe di Borel di ℝ. Detta

misura dipende sia dall'esperimento casuale considerato, sia dalla parti-

colare variabile aleatoria che in esso si è definita. Quindi variabili aleato-

rie distinte definiscono misure distinte in ℝ.

Funzione di distribuzione di probabilità. 14.2 -

Si consideri un esperimento casuale caratterizzato da uno spazio

di probabilità 𝕊=(Ω,ℰ,Prℰ). Come già detto, definire una variabile aleato-

ria 𝑋 equivale a costruire un nuovo esperimento casuale 𝕏 = (Ω,ℬ, Prℬ).

Ci si rende facilmente conto che è possibile calcolare la probabilità

Prℬ{B} da attribuire al generico evento B ∈ ℬ se si definisce la seguente

applicazione avente ℝ come dominio:

𝑃𝑋(𝑥) = Pr(𝐸𝑥) (14.2.1)

Essa è detta funzione di distribuzione di probabilità, (Probability Distribution

Function), associata alla variabile aleatoria 𝑋. Poiché, in base alla sua stes-

sa definizione la 𝑃𝑋(⋅) associa ad ogni 𝑥 ∈ ℝ la probabilità dell'evento

E𝑥 = 𝑋−1(]−∞, 𝑥]), essa può assumere soltanto valori appartenenti

all'intervallo [0,1].

Nel seguito sarà dedotta la probabilità da associare ad alcuni sot-

toinsiemi di ℝ, nota che sia la funzione di distribuzione di probabilità

della variabile aleatoria 𝑋:

- intervallo semiaperto a sinistra

Sia:

B = ]𝑎, 𝑏] (14.2.2)

poiché:

]−∞, 𝑏] = ]−∞, 𝑎] ∪ B (14.2.3)

e

Page 267: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 14 - Variabili Aleatorie - 255

]−∞, 𝑎] ∩ B = ∅ (14.2.4)

si può scrivere:

Pr(B) = 𝑃𝑋(𝑏) − 𝑃𝑋(𝑎) (14.2.5)

- semiretta d’origine destra aperta

Sia

B = (−∞, 𝑎) (14.2.6)

Sia {𝑥𝑛} una qualunque successione convergente ad 𝑎, non decrescente,

e tale che ∀𝑛 ∈ ℕ risulti 𝑥𝑛 ≠ 𝑎, detto B𝑛 = (−∞, 𝑥𝑛] si può scrivere:

B = ∪ B𝑛∞

𝑛=1 (14.2.7)

∪ B𝑖∞𝑖=1 è un evento in quanto unione numerabile di eventi; inoltre, poi-

ché 𝑛 > 𝑚 ⇒ B𝑛 ⊇ B𝑚 risulta Pr{∪ B𝑖𝑛𝑖=1 } = Pr{B𝑛} = 𝑃𝑋(𝑥𝑛).

Si ha quindi:

Pr(B) = 𝑃𝑋(𝑎−) (14.2.8)

dove 𝑃𝑋(𝑎−) = Pr{∪ B𝑛

∞𝑛=1 }. Ci si convince facilmente che la quantità

𝑃𝑋(𝑎−) è indipendente dalla successione {𝑥𝑛} considerata, e coincide con

il limite della funzione di distribuzione 𝑃𝑋(𝑥) per 𝑥 che tende ad 𝑎 dalla

sinistra.

- intervallo chiuso

Sia

B = [𝑎, 𝑏] (14.2.9)

Poiché risulta:

]−∞, 𝑏] = (–∞, 𝑎) ∪ B (14.2.10)

essendo (–∞, 𝑎) ∩ B = ∅, utilizzando la (14.2.8) si ottiene:

Pr(B) = 𝑃𝑋(𝑏) − 𝑃𝑋(𝑎−) (14.2.11)

- punto isolato

Sia:

B = {𝑥0} (14.2.12)

Ponendo nella (14.2.9) 𝑏 = 𝑎 = 𝑥0 la (14.2.11) fornisce:

Pr(B) = 𝑃𝑋(𝑥0) − 𝑃𝑋(𝑥0−) (14.2.13)

Page 268: Lezioni di TEORIA DEI SEGNALI.pdf

256 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

- intervallo aperto

Posto:

B = (𝑎, 𝑏) (14.2.14)

dato che:

(−∞, 𝑏) = ]−∞, 𝑎] ∪ B (14.2.15)

si ottiene:

Pr(B) = 𝑃𝑋(𝑏−) − 𝑃𝑋(𝑎) (14.2.16)

- intervallo semiaperto a destra

Sia

B = [𝑎, 𝑏) (14.2.17)

Risulta facilmente:

Pr{B} = 𝑃𝑋(𝑏−) − 𝑃𝑋(𝑎

−) (14.2.18)

Quanto sopra esposto, evidenzia chiaramente che la distribuzione

di probabilità fornisce una descrizione statistica completa della variabile

aleatoria X . Cosicché, normalmente, si fa riferimento allo spazio di pro-

babilità indotto in ℝ dalla variabile aleatoria, piuttosto che allo spazio di

probabilità originario 𝕊.

Ad esempio nel caso della variabile aleatoria 𝑋, che nel lancio di

una moneta associa 0 al risultato testa e 1 al risultato croce, si ottiene,

assumendo gli eventi {testa} e {croce} equiprobabili:

𝑃𝑋(𝑥) = {

0; 𝑥 < 01

2; 0 ≤ 𝑥 < 1

1; 𝑥 ≥ 1

; (14.2.19)

Proprietà della distribuzione di probabilità. 14.3 -

La distribuzione di probabilità caratterizza completamente una

variabile aleatoria. È quindi importante studiarne le proprietà. In quel

che segue se n’elencano alcune.

- valori limite

Sia 𝑃𝑋(𝑥) la distribuzione di probabilità di una variabile aleatoria

𝑋. Se si fa tendere il suo argomento a −∞ l'insieme ]−∞, 𝑥] si identifica

con l'insieme vuoto, che ha se stesso come controimmagine in Ω.

Page 269: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 14 - Variabili Aleatorie - 257

Deve quindi essere:

lim𝑥→−∞

𝑃𝑋(𝑥) = Pr{∅} = 0 (14.3.1)

Se viceversa si fa tendere 𝑥 a +∞ l'insieme ]−∞, 𝑥] si identifica

con ℝ la cui controimmagine, secondo 𝑋, è Ω cosicché risulta:

lim𝑥→∞

𝑃𝑋(𝑥) = Pr(ℝ) = 1 (14.3.2)

indipendentemente dalla variabile aleatoria considerata.

- monotonia e limitatezza

Si considerino 𝑥1 ed 𝑥2 con 𝑥1 < 𝑥2. La probabilità dell'evento

controimmagine di ]𝑥1, 𝑥2] secondo la variabile aleatoria 𝑋, non può es-

sere negativa. Utilizzando la (14.2.5) si ottiene:

0 ≤ Pr{𝑋−1(]𝑥1, 𝑥2])} = 𝑃𝑋(𝑥2) − 𝑃𝑋(𝑥1) (14.3.3)

Ne segue, data l'arbitrarietà nella scelta di 𝑥1 ed 𝑥2, che la distri-

buzione di probabilità è una funzione non decrescente del suo argomen-

to. Inoltre, tenendo presente la (14.3.2), è:

𝑃𝑋(𝑥) ≤ 𝑃𝑋(+∞) = 1 (14.3.4)

Pertanto, la distribuzione di probabilità è una funzione limitata.

- continuità a destra

Sia data una qualunque successione {ℎ𝑛} tendente a zero, non

crescente e tale che ∀𝑛 ∈ N risulti ℎ𝑛 > 0. Si consideri la famiglia di

eventi {]𝑥0, 𝑥0 + ℎ𝑛]}. La probabilità dell'evento ]𝑥0, 𝑥0 + ℎ𝑛] vale per la

(14.2.5):

Pr{𝑋−1(]𝑥0, 𝑥0 + ℎ𝑛])} = 𝑃𝑋(𝑥0 + ℎ𝑛) − 𝑃𝑋(𝑥0) (14.3.5)

Poiché evidentemente:

∩ ]𝑥0, 𝑥0 + ℎ𝑖]𝑛

𝑖=1= ]𝑥0, 𝑥0 + ℎ𝑛] (14.3.6)

e visto che, indipendentemente dalla scelta della successione, è

∩ (𝑥0, 𝑥0 + ℎ𝑛]∞𝑛=1 = ∅ si ha:

0 = Pr{𝑋−1( lim𝑛→∞

∩ ]𝑥0, 𝑥0 + ℎ𝑖]𝑛

𝑖=1)}

= Pr{𝑋−1( lim𝑛→∞

]𝑥0, 𝑥0 + ℎ𝑛])} = lim𝑛→∞

𝑃𝑋(𝑥0 + ℎ𝑛) − 𝑃𝑋(𝑥0)

= 𝑃𝑋(𝑥0+) − 𝑃𝑋(𝑥0)

(14.3.7)

Page 270: Lezioni di TEORIA DEI SEGNALI.pdf

258 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

che equivale ad affermare che la distribuzione di probabilità è una fun-

zione continua a destra. Risulta cioè:

lim𝑥→𝑥0

+𝑃𝑋(𝑥) ≡ 𝑃𝑋(𝑥0

+) = 𝑃𝑋(𝑥0) (14.3.8)

- limiti da sinistra

Sia data la famiglia d’eventi {(𝑥0 − ℎ𝑛, 𝑥0]} dove {ℎ𝑛} è una suc-

cessione del tipo appena introdotto. La probabilità del generico evento

della famiglia, espressa in termini della distribuzione di probabilità della

variabile aleatoria, vale:

Pr{𝑋−1]𝑥0 − ℎ𝑛 , 𝑥0]} = 𝑃𝑋(𝑥0) − 𝑃𝑋(𝑥0 − ℎ𝑛) (14.3.9)

Poiché, indipendentemente dalla {ℎ𝑛}, è ∩ (𝑥0 − ℎ𝑛 , 𝑥0]∞𝑛=1 = {𝑥0},

si ha:

lim𝑥→𝑥0

−𝑃𝑋(𝑥) ≡ 𝑃𝑋(𝑥0

−) = 𝑃𝑋(𝑥0) − Pr{𝑋−1({𝑥0})} (14.3.10)

Ciò significa che, solo se la probabilità dell'evento controimmagine di

{𝑥0} è nulla, la 𝑃𝑋(⋅) è continua a sinistra in 𝑥0 e quindi è una funzione

continua in 𝑥0. Ciò può verificarsi o perché la variabile aleatoria non at-

tribuisce il valore 𝑥0 a nessun risultato dell'esperimento casuale, il che in

altri termini significa che 𝑋−1({𝑥0}) = ∅, ovvero se, pur essendo

𝑋−1({𝑥0}) ≠ ∅, la probabilità di quest’evento è nulla.

- numero di discontinuità

Sia D l'insieme dei punti di discontinuità della 𝑃𝑋(⋅). L'insieme D

può essere ottenuto come unione di una famiglia d’insiemi disgiunti, il

cui generico elemento B𝑛 contiene tutti i punti di discontinuità in corri-

spondenza dei quali il salto della 𝑃𝑋(⋅) ha un’ampiezza contenuta nell'in-

tervallo I𝑛 = ]1

2𝑛,

1

2𝑛−1]. Risulta evidentemente:

∪ I𝑛∞

𝑛=1= (0,1] (14.3.11)

Dal fatto che per qualunque evento B deve necessariamente essere

Pr{𝑋−1(B)} ≤ 1 discende che ciascun B𝑛 deve essere finito, in particola-

re esso può contenere al più 2𝑛 elementi.

In virtù delle considerazioni appena fatte, si può affermare che

l'insieme dei punti di discontinuità di una funzione di distribuzione di

probabilità è al più numerabile, in quanto unione numerabile di insiemi

finiti.

Page 271: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 14 - Variabili Aleatorie - 259

L'andamento della funzione di distribuzione di probabilità asso-

ciata ad una data variabile aleatoria, suggerisce una possibile classifica-

zione delle variabili aleatorie. Precisamente, se la 𝑃𝑋(𝑥) è continua in ℝ,

la variabile aleatoria cui essa è associata si dice di tipo continuo, se la 𝑃𝑋(𝑥)

è una funzione costante a tratti la variabile si dice di tipo discreto, nei re-

stanti casi si parla di variabile aleatoria di tipo misto.

Per maggior chiarezza, gli andamenti tipici della funzione di di-

stribuzione di probabilità per i diversi tipi di variabili aleatorie sono mo-

strati in Fig. 14.1

Si noti che una variabile aleatoria discreta è completamente defi-

nita una volta che siano noti l'insieme D = {𝑥1, 𝑥2, … } dei punti di di-

scontinuità e l'ampiezza dei salti 𝑃𝑖 ≡ Pr{𝑋−1({𝑥𝑖})} che la distribuzione

di probabilità presenta in corrispondenza ad essi.

L'applicazione 𝑃(𝑥𝑖) che associa ad ogni elemento di D la rispet-

tiva 𝑃𝑖 prende il nome di distribuzione di massa. È evidente che la cono-

scenza della distribuzione di massa, per una variabile aleatoria discreta, è

in tutto equivalente alla conoscenza della sua distribuzione di probabili-

tà, in quanto, nota la prima, si può ricavare facilmente la seconda e vice-

versa.

Quale che sia la variabile aleatoria discreta, risulta ovviamente:

∑𝑃𝑖𝑖

= 1 (14.3.12)

dove la sommatoria s’intende estesa a tutti gli elementi di D che è, come

sopra mostrato, al più numerabile.

In particolare la probabilità che la variabile aleatoria 𝑋 assuma va-

lori appartenenti ad un generico insieme I vale:

Fig. 14.1 PX ( x) tipica di una variabile aleatoria di tipo continuo, discreto, misto

Page 272: Lezioni di TEORIA DEI SEGNALI.pdf

260 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Pr{𝑋−1(I)} = Pr{𝑋−1(I ∩ D)} = ∑ 𝑃𝑖𝑖|𝑥𝑖∈𝐼

(14.3.13)

Densità di probabilità di una variabile aleatoria con-14.4 - tinua.

Una variabile aleatoria di tipo continuo che ammetta una distri-

buzione di probabilità derivabile in tutto ℝ può essere caratterizzata an-

che mediante la cosiddetta densità di probabilità 𝑝𝑋(⋅) (probability density

function):

𝑝𝑋(𝑥) =𝑑𝑃𝑋(𝑥)

𝑑𝑥 (14.4.1)

Dalle proprietà viste nel paragrafo precedente, relative alla distri-

buzione di probabilità, si deducono facilmente le corrispondenti pro-

prietà che caratterizzano la funzione densità di probabilità di una varia-

bile aleatoria.

Poiché la distribuzione di probabilità è una primitiva della rispet-

tiva densità deve risultare:

∫ 𝑝𝑋(𝑥)𝑑𝑥 =𝑏

𝑎

𝑃𝑋(𝑏) − 𝑃𝑋(𝑎) ≡ Pr{𝑋−1((𝑎, 𝑏])} (14.4.2)

Se l'integrale si estende all'intero asse reale si ottiene:

∫ 𝑝𝑋(𝑥)𝑑𝑥 =∞

−∞

𝑃𝑋(∞) − 𝑃𝑋(−∞) = 1 (14.4.3)

che è la cosiddetta condizione di normalizzazione. Essa in sostanza significa

che l'area sottesa dalla densità di probabilità di una variabile aleatoria è

sempre unitaria.

Inoltre poiché la 𝑃𝑋(𝑥) è una funzione non decrescente del suo

argomento, la densità di probabilità di una variabile aleatoria non può

assumere valori negativi.

𝑝𝑋(𝑥) ≥ 0 (14.4.4)

Volendo attribuire un significato non puramente formale alla

densità di probabilità, si osservi che essa, espressa sotto forma di limite

del rapporto incrementale della corrispondente distribuzione, può porsi

nella forma:

Page 273: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 14 - Variabili Aleatorie - 261

𝑝𝑋(𝑥0) = lim𝛥𝑥→0

𝑃𝑋(𝑥0 + 𝛥𝑥) − 𝑃𝑋(𝑥0)

𝛥𝑥

= lim𝛥𝑥→0+

Pr{𝑋−1((𝑥0, 𝑥0 + 𝛥𝑥])}

|𝛥𝑥|

= lim𝛥𝑥→0−

Pr{𝑋−1((𝑥0 + 𝛥𝑥, 𝑥0])}

|𝛥𝑥|

(14.4.5)

da cui si deduce facilmente che, a meno di infinitesimi di ordine supe-

riore a |𝛥𝑥|, risulta:

Pr{𝑋−1((𝑥0, 𝑥0 + 𝛥𝑥])} = Pr{𝑋

−1((𝑥0 + 𝛥𝑥, 𝑥0])}

= 𝑝𝑋(𝑥0)|𝛥𝑥| (14.4.6)

che s’interpreta affermando che, il prodotto 𝑝𝑋(𝑥0)|𝛥𝑥| esprime indiffe-

rentemente la probabilità di uno dei due eventi che compaiono nella

precedente.

Densità di probabilità di una variabile aleatoria di-14.5 - screta.

Il concetto di densità di probabilità può essere esteso facilmente

anche al caso di variabili aleatorie di tipo discreto, pur di intendere la de-

rivata che compare nella (14.4.1) in senso distribuzionale.

Una variabile di tipo discreto ha quindi una densità di probabilità

costituita da un insieme di delta di Dirac localizzate nei punti di di-

scontinuità e di ampiezza pari ai rispettivi salti della corrispondente di-

stribuzione di probabilità.

È facile rendersi conto che la condizione di normalizzazione vale

anche per le variabili aleatorie di tipo discreto. Risulta infatti:

∫ 𝑝𝑋(𝑥)𝑑𝑥∞

−∞

= ∫ ∑ (𝑃𝑋(𝑥𝑖) − 𝑃𝑋(𝑥𝑖_))𝛿(𝑥 − 𝑥𝑖)

𝑖|𝑥𝑖∈𝐷

𝑑𝑥∞

−∞

=∑𝑃𝑖𝑖

= 1

(14.5.1)

Inoltre, poiché il peso di ciascuna delta esprime la probabilità dell'evento

𝑋−1({𝑥𝑖}), esso non può essere negativo.

La generalizzazione del concetto di densità di probabilità al caso

delle variabili aleatorie di tipo misto è immediata.

Page 274: Lezioni di TEORIA DEI SEGNALI.pdf

262 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

È opportuno precisare che, nel caso di variabili aleatorie discrete

o miste, occorre procedere con cautela nel calcolo d’integrali della 𝑝𝑋(⋅).

Si considerino ad esempio i due integrali:

a) ∫ 𝑝𝑋(𝑥)𝑑𝑥𝑏+

𝑎+= 𝑃𝑟{𝑋−1((𝑎, 𝑏])}

(14.5.2)

b) ∫ 𝑝𝑋(𝑥)𝑑𝑥𝑏−

𝑎+= 𝑃𝑟{𝑋−1((𝑎, 𝑏))}

Se 𝑋 è una variabile aleatoria continua, essi evidentemente conducono

allo stesso risultato, se invece la variabile aleatoria è di tipo misto, effet-

tuare il calcolo secondo la (14.5.2)a, o la (14.5.2)b equivale a considerare

o neno il contributo all'integrale di una delta di Dirac, dovuta

all’eventuale presenza in corrispondenza del punto 𝑏 di una disconti-

nuità della 𝑃𝑋(𝑥). I risultati ottenuti potrebbero quindi essere sostan-

zialmente diversi.

Variabili aleatorie bidimensionali. Funzioni di proba-14.6 - bilità congiunte.

Sia 𝕊=(Ω,ℰ,Pr) uno spazio di probabilità e siano 𝑋 ed 𝑌 due va-

riabili aleatorie definite sull'insieme dei risultati. Ad ogni coppia (𝑥, 𝑦) di

numeri reali, si può associare il sottoinsieme di Ω così definito:

E𝑥𝑦 = E𝑥 ∩ E𝑦 = {휁 | 𝑋(휁) ≤ 𝑥 ⋀ 𝑌(휁) ≤ 𝑦} (14.6.1)

Detto insieme costituisce un evento, in quanto intersezione di

due eventi. Si dice allora che la coppia di variabili aleatorie 𝑋, 𝑌 definisce

una variabile aleatoria bidimensionale associata ad 𝕊.

Come nel caso monodimensionale, una variabile aleatoria bidi-

mensionale è statisticamente caratterizzata dalla funzione 𝑃𝑋𝑌(𝑥, 𝑦) così

definita:

𝑃𝑋𝑌(𝑥, 𝑦) = Pr{E𝑥𝑦} (14.6.2)

che prende il nome di distribuzione di probabilità congiunta.

Dal momento che evidentemente {휁|𝑋(휁) < ∞} = {휁|𝑌(휁) < ∞} = Ω

e poiché Ω ∩ E = E valgono le: a) 𝑃𝑋𝑌(∞, 𝑦) = 𝑃𝑌(𝑦)

(14.6.3) b) 𝑃𝑋𝑌(𝑥,∞) = 𝑃𝑋(𝑥)

Page 275: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 14 - Variabili Aleatorie - 263

cioè le distribuzioni di probabilità (monodimensionali) associate alle va-

riabili aleatorie 𝑋 ed 𝑌 possono essere dedotte dalla distribuzione di

probabilità congiunta associata alla variabile aleatoria bidimensionale

(𝑋, 𝑌). In omaggio a questa circostanza, talvolta le funzioni 𝑃𝑋(𝑥) e

𝑃𝑌(𝑦) sono denominate distribuzioni marginali.

La funzione distribuzione di probabilità congiunta gode delle

proprietà qui sotto elencate:

- Se si fa tendere 𝑥 o 𝑦 a −∞, l'insieme E𝑥𝑦 tende all'insieme vuoto. Si

ha pertanto:

a) 𝑃𝑋𝑌(−∞, 𝑦) = 0 (14.6.4)

b) 𝑃𝑋𝑌(𝑥, −∞) = 0

- Se si fanno tendere entrambe le quantità 𝑥 e 𝑦 a +∞ l'insieme Exy

tende a Ω, ciò comporta

𝑃𝑋𝑌(∞,∞) = 1 (14.6.5)

- Poiché 𝑥1 ≤ 𝑥2 e 𝑦1 ≤ 𝑦2 implica E𝑥1𝑦1 ⊆ E𝑥2𝑦2 la PXY(⋅,⋅) deve

soddisfare la proprietà:

𝑃𝑋𝑌(𝑥1, 𝑦1) ≤ 𝑃𝑋𝑌(𝑥2, 𝑦2) (14.6.6)

La caratterizzazione statistica di una variabile bidimensionale

(𝑋, 𝑌) può essere ottenuta per mezzo della cosiddetta densità di probabilità

congiunta:

𝑝𝑋𝑌(𝑥, 𝑦) =𝜕2𝑃𝑋𝑌(𝑥, 𝑦)

𝜕𝑥𝜕𝑦 (14.6.7)

È possibile mostrare che, analogamente al caso delle variabili con-

tinue monodimensionali, nel caso di variabili aleatorie continue bidi-

mensionali, 𝑝𝑋𝑌(𝑥, 𝑦)|𝛥𝑥𝛥𝑦| esprime, a meno di infinitesimi di ordine

superiore, la probabilità dell'evento {휁|𝑥 < 𝑋(휁) < 𝑥 + 𝛥𝑥 ⋀ 𝑦 < 𝑌(휁) <

𝑦 + 𝛥𝑦}.

Se la derivata che compare nella (14.6.7) è intesa in senso genera-

lizzato, il concetto di densità di probabilità può essere esteso al caso di

variabili aleatorie bidimensionali discrete o miste per le quali la funzione

𝑃𝑋𝑌(𝑥, 𝑦) può presentare dei salti di ampiezza finita.

Page 276: Lezioni di TEORIA DEI SEGNALI.pdf

264 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Le proprietà della funzione 𝑃𝑋𝑌(𝑥, 𝑦) sopra riportate, si traducono

facilmente in termini della funzione 𝑝𝑋𝑌(𝑥, 𝑦). Si ha così:

𝑝𝑋𝑌(𝑥, 𝑦) ≥ 0 (14.6.8)

e

∫ ∫ 𝑝𝑋𝑌(𝜉, 휂)𝑑𝜉𝑑휂

𝑦2

𝑦1

𝑥2

𝑥1

= Pr{휁|𝑥1 < 𝑋(휁) ≤ 𝑥2 ⋀ 𝑦1 < 𝑌(휁)

≤ 𝑦2}

(14.6.9)

In particolare dalla (14.6.9) si ha:

𝑃𝑋𝑌(𝑥, 𝑦) = ∫ ∫ 𝑝𝑋𝑌(𝜉, 휂)𝑑𝜉𝑑휂𝑦

−∞

𝑥

−∞

(14.6.10)

La condizione (14.4.3) si traduce nella seguente condizione di

normalizzazione:

∬ 𝑝𝑋𝑌(𝜉, 휂)𝑑𝜉𝑑휂R2

= 1 (14.6.11)

Per quanto riguarda le densità di probabilità marginali dalle

(14.6.3), tenendo conto della (14.6.10), si ottengono le:

a) 𝑃𝑋(𝑥) = ∫ ∫ 𝑝𝑋𝑌(𝜉, 휂)𝑑𝜉𝑑휂∞

−∞

𝑥

−∞

(14.6.12)

b) 𝑃𝑌(𝑦) = ∫ ∫ 𝑝𝑋𝑌(𝜉, 휂)𝑑𝜉𝑑휂∞

−∞

𝑦

−∞

le quali derivate rispettivamente rispetto a 𝑥 e a 𝑦 forniscono:

a) 𝑝𝑋(𝑥) = ∫ 𝑝𝑋𝑌(𝑥, 𝑦)𝑑𝑦∞

−∞

(14.6.13)

b) 𝑝𝑌(𝑦) = ∫ 𝑝𝑋𝑌(𝑥, 𝑦)𝑑𝑥∞

−∞

Le variabili aleatorie 𝑋 e 𝑌 si dicono statisticamente indipendenti se la

loro distribuzione di probabilità congiunta si può esprimere come pro-

dotto delle due distribuzioni marginali:

𝑃𝑋𝑌(𝑥, 𝑦) = 𝑃𝑋(𝑥) ⋅ 𝑃𝑌(𝑦) (14.6.14)

o, in modo equivalente, la densità congiunta si può scrivere:

Page 277: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 14 - Variabili Aleatorie - 265

𝑝𝑋𝑌(𝑥, 𝑦) = 𝑝𝑋(𝑥) ⋅ 𝑝𝑌(𝑦) (14.6.15)

cioè due variabili aleatorie associate ad uno stesso esperimento casuale si

dicono statisticamente indipendenti se le funzioni di probabilità con-

giunte si fattorizzano in termini delle rispettive funzioni di probabilità

marginali.

Tutte le considerazioni fin qui esposte nel caso di due variabili

aleatorie possono essere facilmente generalizzate al caso di 𝑛 variabili

aleatorie definite su uno stesso esperimento casuale o, che è lo stesso, al

caso di un vettore aleatorio 𝑛-dimensionale.

Esempio 14.1

Siano 𝑋 e 𝑌 due variabili aleatorie caratterizzate da una densità di proba-

bilità congiunta data dalla:

𝑝𝑋𝑌(𝑥, 𝑦) = {2; |𝑥| ≤

1

2 ⋀ −

1

2≤ 𝑦 ≤ 𝑥

0; altrove

cioè la pX Y(x,y ) è costante e uguale a 2 nella

regione indicata nella Fig. Fig.E 14.1e vale 0

altrove.

Le densità di probabilità marginali sono date

da (vedi Fig.E 14.1):

𝑝𝑋(𝑥) = ∫ 𝑝𝑋𝑌(𝑥, 𝑦)𝑑𝑦∞

−∞

=

{

∫ 2𝑑𝑦

𝑥

−1

2

= 2𝑥 + 1; |𝑥| ≤1

2

0; |𝑥| >1

2

;

e

𝑝𝑌(𝑦) = ∫ 𝑝𝑋𝑌(𝑥, 𝑦)𝑑𝑥∞

−∞

=

{

∫ 2𝑑𝑥

1

2

𝑦

= 1 − 2𝑦; |𝑦| ≤1

2

0; |𝑦| >1

2

;

Si può facilmente verificare la corretteza dei risultati mostrando che è soddi-

sfatta la proprità di normalizzazione per entrambe le densità di probabilità

marginali:

∫ 𝑝𝑋(𝑥)𝑑𝑥∞

−∞

= ∫ (2𝑥 + 1)𝑑𝑥

1

2

−1

2

= [𝑥2 + 𝑥]−1

2

1

2 = 1;

Fig.E 14.1

Page 278: Lezioni di TEORIA DEI SEGNALI.pdf

266 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

∫ 𝑝𝑌(𝑦)𝑑𝑦∞

−∞

= ∫ (1 − 2𝑦)𝑑𝑦

1

2

−1

2

= [𝑦 − 𝑦2]−1

2

1

2 = 1;

Funzioni di probabilità condizionate. 14.7 -

Date due varaibili aleatorie 𝑋 ed 𝑌 definite sullo stesso esperi-

mento casuale aventi densità di probabilità congiunta 𝑝𝑋𝑌(𝑥𝑦), si pren-

dano in considerazione i due eventi:

𝐸1 = {𝑋 ≤ 𝑥}, 𝐸2 = {𝑦 −|∆𝑦|

2< 𝑌 < 𝑦 +

|∆𝑦|

2} ; (14.7.1)

La probabilità dell'evento 𝐸1 condizionata dal manifestarsi dell'evento

𝐸2, nell’ipotesi che quest'ultimo abbia probabilità diversa da zero, per la

formula di Bayes vale:

Pr{𝐸1|𝐸2} =Pr{𝐸1⋂𝐸2}

Pr{𝐸1}=

∫ ∫ 𝑝𝑋𝑌(𝛼, 𝛽)𝑑𝛼𝑑𝛽𝑥

−∞

𝑦+|∆𝑦|

2

𝑦−|∆𝑦|

2

∫ 𝑝𝑌(𝛽)𝑑𝛽𝑦+

|∆𝑦|

2

𝑦−|∆𝑦|

2

(14.7.2)

Se si fa tendere Δ𝑦 a zero, ammesso che la 𝑝𝑌(𝑦), sia continua in

𝑦, 𝐸2 si riduce all'evento singolare 𝐸2 = {𝑌 = 𝑦} e si ha:

lim∆𝑦→0

Pr{𝐸1|𝐸2} = lim∆𝑦→0

∫ ∫ 𝑝𝑋𝑌(𝛼, 𝛽)𝑑𝛼𝑑𝛽𝑥

−∞

𝑦+|∆𝑦|

2

𝑦−|∆𝑦|

2

∫ 𝑝𝑌(𝛽)𝑑𝛽𝑦+

|∆𝑦|

2

𝑦−|∆𝑦|

2

= lim∆𝑦→0

∫ 𝑝𝑋𝑌(𝛼, ��)|∆𝑦|𝑑𝛼𝑥

−∞

𝑝𝑌(��)|∆𝑦|=∫ 𝑝𝑋𝑌(𝛼, 𝑦)𝑑𝛼𝑥

−∞

𝑝𝑌(𝑦)

(14.7.3)

Si noti il limite (14.7.3) esiste finito se risulta 𝑝𝑌(𝑦) ≠ 0 e, per

ogni valore di 𝑦 definisce una funzione della variabile 𝑥 che soddisfa tut-

te le proprietà di una distribuzione di probabilità. Denoteremo tale fun-

zione, 𝑃𝑋|𝑌(𝑥, 𝑦) e la chiameremo distribuzione di probabilità condizionata.

Alla 𝑃𝑋|𝑌(𝑥, 𝑦) corrisponde una densità di probabilità condizionata data dal-

la:

𝑝𝑋|𝑌(𝑥, 𝑦) =𝜕𝑃𝑋|𝑌(𝑥, 𝑦)

𝜕𝑥=𝑝𝑋𝑌(𝑥, 𝑦)

𝑝𝑌(𝑦) (14.7.4)

Dalla precedente si ottiene facilmente:

Page 279: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 14 - Variabili Aleatorie - 267

𝑝𝑋𝑌(𝑥, 𝑦) = 𝑝𝑌(𝑦)𝑝𝑋|𝑌(𝑥, 𝑦) (14.7.5)

In modo analogo, introducendo la densità di probabilità condi-

zionata 𝑝𝑌|𝑋(𝑦, 𝑥) si deduce:

𝑝𝑋𝑌(𝑥, 𝑦) = 𝑝𝑋(𝑋)𝑝𝑌|𝑋(𝑦, 𝑥) (14.7.6)

Inoltre tenuto conto delle condizioni di normalizzazione:

∫ 𝑝𝑋|𝑌(𝑥, 𝑦)𝑑𝑥 = ∫ 𝑝𝑌|𝑋(𝑦, 𝑥)𝑑𝑦 =∞

−∞

−∞

1 (14.7.7)

Funzioni di probabilità d’ordine superiore. 14.8 -

In maniera analoga a quanto fatto nei paragrafi precedenti, dato

una variabile aleatoria multi dimensionale, cioè una n-upla di variabili

aleatorie 𝑿 = [𝑋1, 𝑋2, … , 𝑋𝑛] definite sullo stesso esperimento casuale, si

denota con

𝑃𝑋1,𝑋2,…,𝑋𝑛 (𝑥1, 𝑥2, … , 𝑥𝑛) = 𝑃𝑿 (𝒙) (14.8.1)

la distribuzione di probabilità congiunta associata a detta variabile, essa

in ogni 𝒙 esprimerà la probabilità dell'evento:

𝐸𝒙 = {𝑿: 𝑋1 ≤ 𝑥1 ∧ 𝑋2 ≤ 𝑥2…∧ 𝑋𝑛 ≤ 𝑥𝑛} (14.8.2)

Si può anche definire una densità di probabilità congiunta della variabile

𝑿 = [𝑋1, 𝑋2, … , 𝑋𝑛]:

𝑝𝑿 (𝒙) =𝜕𝑛𝑃𝑋1,𝑋2,…,𝑋𝑛 (𝑥1, 𝑥2, … , 𝑥𝑛)

𝜕𝑥1𝜕𝑥2…𝜕𝑥𝑛 (14.8.3)

in cui la derivata, anche in questo caso, va eventualmente intesa in senso

generalizzato.

Dalla 𝑝𝑿 (𝒙) si possono dedurre tutte le densità congiunte relative

ad un qualunque sottoinsieme delle componenti di 𝑿 per successiva

marginalizzazione, cioè integerando su tutto l’asse reale 𝑝𝑿 (𝒙) rispetto a

tutte le componenti di 𝑿 . Si ha infatti, generalizzando le (14.6.13):

𝑝𝑋1,𝑋2,…,𝑋𝑛−1 (𝑥1, 𝑥2, … , 𝑥𝑛−1) =

∫ 𝑝𝑋1,𝑋2,…,𝑋𝑛 (𝑥1, 𝑥2, … , 𝑥𝑛)𝑑𝑥𝑛∞

−∞;

𝑝𝑋1,𝑋2,…,𝑋𝑛−1 (𝑥1, 𝑥2, … , 𝑥𝑛−2) =

∫ ∫ 𝑝𝑋1,𝑋2,…,𝑋𝑛 (𝑥1, 𝑥2, … , 𝑥𝑛)𝑑𝑥𝑛∞

−∞

−∞𝑑𝑥𝑛−1;

(14.8.4)

Page 280: Lezioni di TEORIA DEI SEGNALI.pdf

268 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

….

𝑝𝑋1, (𝑥1) = ∫ …∫ 𝑝𝑋1,…,𝑋𝑛 (𝑥1, … , 𝑥𝑛)𝑑𝑥𝑛

−∞

𝑑𝑥𝑛−1…𝑑𝑥2

−∞

;

Vale anche la condizione di normalizzazione:

∫ …∫ 𝑝𝑿 (𝒙)𝑑𝒙∞

−∞

−∞

= 1 (14.8.5)

ovviamente risulta:

𝑃𝑿 (𝒙) = ∫ …∫ 𝑝𝑿 (𝒚)𝑑𝒚𝑥𝑛

−∞

𝑥1

−∞

(14.8.6)

e sono soddisfatte le uguaglianze:

𝑃𝑋1,𝑋2,…,𝑋𝑛 (−∞,−∞,… ,−∞) = 0;

𝑃𝑋1,𝑋2,…,𝑋𝑛 (∞,∞,… ,∞) = 1 (14.8.7)

Page 281: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 15

FUNZIONI DI VARIABILI ALEATORIE

Funzioni di una variabile aleatoria. 15.1 -

Data una funzione reale 𝑓(∙) definita in ℝ misurabile e una varia-

bile aleatoria 𝑋(휁) definita su un esperimento casuale ℰ. Si consideri

l’applicazione definita su Ω a valori in ℝ:

𝑌 = 𝑓(𝑋(휁)) (15.1.1)

Ci si convince facilmente che 𝑌 è a sua volta una variabile aleatoria defi-

nita sull’esperimento casuale 𝕊=(Ω,ℰ,Pr).

Infatti, la misurabilità della funzione 𝑓(∙) garantisce che la con-

troimmagine secondo 𝑓(∙) di ogni semiretta di origine destra chiusa sia

un insieme misurabile secondo Lebesgue. A sua volta la controimmagi-

ne secondo la variabile aleatoria 𝑋 di un sottoinsieme di ℝ misurabile è

certamente un evento, cioè appartiene alla classe ℰ, quindi ad esso si

può attribuire una probabilità.

Ci si propone di calcolare la distribuzione di probabilità 𝑃𝑌(𝑦)

della variabile aleatoria 𝑌 nota che sia quella della variabile aleatoria 𝑋.

A tal fine si ricorda che la 𝑃𝑌(𝑦) eguaglia la probabilità che la va-

riabile 𝑌 assuma un valore non superiore ad 𝑦. Tale eventualità si verifi-

ca tutte e sole le volte che la variabile aleatoria 𝑋 assume valori apparte-

nenti all’insieme 𝐸𝑦 = 𝑓−1(]−∞, 𝑦]). In altri termini

𝑃𝑌(𝑦) = Pr{𝐸𝑦}= Pr{𝑋−1(𝐸𝑦)}.

Se è nota la densità di probabilità di 𝑋, potremo scrivere:

𝑃𝑌(𝑦) = Pr{𝐸𝑦} = ∫ 𝑝𝑋(𝑥)𝑑𝑥𝐼𝑦

(15.1.2)

È opportuno sottolineare che l’integrale che compare nella pre-

cedente va inteso in senso delle distribuzioni qualora la 𝑝𝑋(𝑥) contenga

delle delta di Dirac.

Esiste anche un metodo alternativo per calcolare la densità di

probabilità della variabile aleatoria 𝑌.

Page 282: Lezioni di TEORIA DEI SEGNALI.pdf

270 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

A tale scopo si consideri una funzione 𝑓(∙) derivabile quasi ovun-

que priva di tratti costanti e la variabile aleatoria 𝑋 sia di tipo continuo.

Data la funzione

𝑌 = 𝑓(𝑋) nel piano (𝑂, 𝑋, 𝑌), si

consideri sull’asse 𝑌 l’intervallo

I𝑦 = ]𝑦 −𝛥𝑦

2, 𝑦 +

𝛥𝑦

2]; ad esso

corrisponde un'immagine in-

versa 𝑓−1(I𝑦), costituita, per il

tipo di funzione considerata,

da un’unione finita o al più

numerabile di intervalli a due a

due disgiunti I𝑥𝑗, centrati nelle soluzioni 𝑥𝑗 dell’equazione 𝑦 = 𝑓(𝑋)

nell’incognita 𝑋 (v. Fig. 15.1). Si ha cioè:

𝑓−1(I𝑦) =⋃I𝑥𝑗𝑗

(15.1.3)

Si osservi adesso che la probabilità che la variabile aleatoria 𝑌 as-

suma un valore appartenente all'intervallo I𝑦, è uguale alla probabilità

che la variabile aleatoria 𝑋 assuma un valore appartenente all'evento

𝐸 = ⋃ I𝑥𝑗𝑗 . Si può quindi scrivere:

Pr{I𝑦} = Pr{E} = ∑Pr{I𝑥𝑗}

𝑗

(15.1.4)

dal momento che, come gia scritto, gli eventi che costituiscono E sono a

due a due disgiunti.

Si osservi inoltre che date le ipotesi fatte sul segnale, al tendere a

zero della misura |𝛥𝑦| di I𝑦 anche la misura |𝛥𝑥𝑗| del generico I𝑥𝑗 tende

a zero. Quindi, ricordando il significato della densità di probabilità di

una variabile aleatoria, la (15.1.4) si può riscrivere, a meno d’infinitesimi

di ordine superiore al primo, nella forma:

𝑝𝑌(𝑦)|𝛥𝑦| ≅ ∑𝑝𝑋(𝑥𝑗)|𝛥𝑥𝑗|

𝑗

(15.1.5)

Osserviamo che tutti gli addendi della sommatoria a secondo membro

sono non negativi pertanto la 𝑝𝑌(𝑦) sarà nulla soltanto per quei valori di

Fig. 15.1

Page 283: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 15 - Funzioni di Variabili Aleatorie - 271

𝑦 per i quali risulti 𝑝𝑋(𝑥𝑗) = 0 per ogni valore dell’indice 𝑗, cioè in corri-

spondenza ad ogni soluzione dell’equazione 𝑦 = 𝑓(𝑋)

Per tutti i valori di 𝑦 in corrispondenza ai quali ∀𝑥𝑗 risulti

|𝑑𝑓(𝑋)

𝑑𝑋|𝑥=𝑥𝑗

≠ 0 dividendo ambo i membri della (15.1.5) per |𝛥𝑦| e pas-

sando al limite per 𝛥𝑦 → 0, si ottiene:

𝑝𝑌(𝑦) = lim

𝛥𝑦→0∑

𝑝𝑋(𝑥𝑗)|𝛥𝑦|

|𝛥𝑥𝑗|𝑗

=∑𝑝𝑋(𝑥𝑗)

|𝑑𝑓(𝑋)

𝑑𝑋|𝑋=𝑥𝑗

𝑗

(15.1.6)

In corrispondenza agli eventuali valori di 𝑥 per i quali risulta che

|𝑑𝑓(𝑋)

𝑑𝑋|𝑋=𝑥𝑗

= 0, ovvero per i quali la 𝑓(𝑋) non risulti derivabile la 𝑝𝑌(𝑦)

non è definita; tuttavia la 𝑝𝑌(𝑦) risulta definita quasi ovunque dalla

(15.1.6), in quanto tali punti costituiscono, per le ipotesi fatte sulla fun-

zione 𝑓(∙) un insieme al più numerabile.

Consideriamo adesso il caso in cui la 𝑓(𝑋) sia costante a tratti cioè

la funzione, può assumere soltanto valori appartenenti ad un sottoin-

sieme di A ⊂ ℝ al più numerabile, com’è indicato in Fig. 15.2.

Ci si convince facil-

mente che la 𝑝𝑌(𝑦) in questo

caso è di tipo discreto. Infatti,

facendo riferimento alla Fig.

15.2, la probabilità 𝑃𝑖 che il la

variabile 𝑌 il valore 𝑦𝑖 è data

da:

𝑃𝑖 = Pr{𝑌 = 𝑦𝑖} = ∫𝑝𝑋(𝑥)𝑑𝑥𝐼𝑖

(15.1.7)

dove l’integrale è esteso a I𝑖 = 𝑓−1({𝑦𝑖}), cioè alla controimmagine

dell’insieme {𝑦𝑖}.

La funzione distribuzione di probabilità 𝑃𝑌(𝑦) presenterà, in cor-

rispondenza al generico 𝑦𝑖 , un salto di valore 𝑃𝑖 . Il valore da essa assun-

to sarà 𝑃𝑌(𝑦𝑖) = ∑ 𝑃𝑗𝑗≤𝑖 e tale resterà a 𝑦𝑖+1. La 𝑃𝑌(𝑦) si presenterà

quindi come una funzione a scala, pertanto la variabile aleatoria 𝑌 sarà in

questo caso di tipo discreto.

Fig. 15.2

Page 284: Lezioni di TEORIA DEI SEGNALI.pdf

272 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

La densità di probabilità 𝑝𝑌(𝑦) è conseguentemente espressa dal-

la:

𝑝𝑌(𝑦) = ∑𝑃𝑖𝛿(𝑦 − 𝑦𝑖)

𝑖

(15.1.8)

Esempio 15.1

Si consideri la funzione

𝑌 = cos(𝛷)

dove Φ denota una variabile casua-

le caratterizzata da una densità di

probabilità 𝑝Φ(𝜑)

Se |𝑦| ≤ 1 l'equazione

𝑦 = cos(𝛷)

presenta le soluzioni generate dalle

(v. Fig.E 15.1)

𝜑𝑘 = arccos(𝑦) + 2𝑘𝜋;

 𝜑′𝑗= −arccos(𝑦) + 2𝑗𝜋

Poiché è:

𝑑𝑌

𝑑𝛷= −sin(𝛷)

risulta:

|𝑑𝑌

𝑑𝛷|𝜑𝑘

= |sin(𝜑𝑘)| = √(1 − cos2(𝜑𝑘))

|𝑑𝑌

𝑑𝛷|𝜑′𝑘𝑗

= |sin(𝜑′𝑗)| = √(1 − cos2(𝜑′𝑗))

}

= √1 − 𝑦2

Ne consegue:

𝑝𝑌(𝑦) =∑ (𝑝𝛷(𝜑𝑘) + 𝑝𝛷(𝜑′𝑗))𝑘,𝑗

√1 − 𝑦2

Se 𝜑 ad esempio, è uniformemente distribuita in [0, 2, qualunque sia

l'istante t, la sommatoria che compare nella precedente, contiene due soli

termini non nulli ottenuti in corrispondenza al valore 0 dell’indice 𝑘 e 1 di j,

precisamente:

𝜑0 = arccos(𝑦);

 𝜑′1= 2𝜋 − arccos(𝑦)

Quindi risulta:

Fig.E 15.1

Page 285: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 15 - Funzioni di Variabili Aleatorie - 273

𝑝𝑌(𝑦) =⊓(𝑦

2)

2𝜋√1−𝑦2+

⊓(𝑦2)

2𝜋√1−𝑦2=

⊓(𝑦2)

𝜋√1−𝑦2

il cui andamento in funzione di 𝑦 è riportato in Fig. E.IV.4. a).

La distribuzione di probabilità si ottiene per integrazione della prece-

dente. Si ha:

𝑃𝑌(𝑦) = (1

2+arcsin(𝑦)

𝜋)⊓ (

𝑦

2) + u(𝑦 − 1)

ed è rappresentata nella Fig. E.IV.4 b).

Fig.E 15.2

Page 286: Lezioni di TEORIA DEI SEGNALI.pdf
Page 287: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 16

MEDIE STATISTICHE

Valore medio di funzioni di variabili aleatorie. 16.1 -

Sia 𝑋(휁) una variabile aleatoria continua definita sull'insieme dei

risultati di un esperimento casuale 𝕊=(Ω,ℰ,Pr), caratterizzata da una

densità di probabilità 𝑝𝑋(𝑥). Si consideri un’applicazione 𝑓(𝑋), dove

𝑓(⋅) è una funzione misurabile definita quasi ovunque in ℝ.

La quantità:

𝐸{𝑓(𝑋)} = 𝑓(𝑋) = ∫ 𝑓(𝑥)𝑝𝑋(𝑥)𝑑𝑥∞

−∞

(16.1.1)

ammesso che esista e che sia anche limitata, viene chiamata valore medio

statistico della funzione 𝑓(𝑋) associata alla variabile aleatoria 𝑋.

Per chiarire il significato della (16.1.1) è opportuno ragionare in

termini di frequenza relativa. A tale scopo, si suddivida l'intervallo

d’integrazione in un insieme d’intervalli contigui del tipo (𝑖𝛥𝑥, (𝑖 +

1)𝛥𝑥) e si scelga arbitrariamente all'interno di ciascuno di essi un punto

𝑥𝑖. Se l'integrale (16.1.1) esiste, si può scrivere:

𝑓(𝑋) = lim𝛥𝑥→0

∑ 𝑓(𝑥𝑖)𝑝𝑋(𝑥𝑖)𝛥𝑥

𝑖=−∞

(16.1.2)

Si osservi adesso che la quantità 𝑝𝑋(𝑥𝑖)𝛥𝑥 approssima la probabi-

lità che occorra l'evento

E𝑖 = (𝑖𝛥𝑥, (𝑖 + 1)𝛥𝑥] (16.1.3)

la quale in termini di frequenza relativa può essere espressa come segue:

𝑝𝑋(𝑥𝑖)𝛥𝑥 = lim𝑁→∞

𝛥𝑁𝑖𝑁

(16.1.4)

Dove 𝑁 rappresenta il numero d’esperimenti effettuati, e 𝛥𝑁𝑖 quello de-

gli esperimenti che hanno dato esito favorevole, cioè quelli al cui risulta-

to la variabile aleatoria associa un valore appartenente ad E𝑖 , Si osservi

che tale numero dipende anche dall'ampiezza 𝛥𝑥 di E𝑖 . Sostituendo la

(16.1.4) nella (16.1.2) si ottiene:

Page 288: Lezioni di TEORIA DEI SEGNALI.pdf

276 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑓(𝑋) = lim𝛥𝑥→0𝑁→∞

1

𝑁∑ 𝑓(𝑥𝑖)𝛥𝑁𝑖

𝑖=−∞

(16.1.5)

E’ facile convincersi che la sommatoria a secondo membro, rap-

presenta la somma di tutti i valori assunti dalla funzione 𝑓(𝑋) in corri-

spondenza alle 𝑁 prove effettuate. Di conseguenza 𝑓(𝑋) si può anche

scrivere nella forma:

𝑓(𝑋) = lim𝑁→∞

1

𝑁∑𝑓(𝑋(휁𝑖))

𝑁

𝑖=1

(16.1.6)

dove 휁𝑖 rappresenta il risultato ottenuto nell' 𝑖-esima ripetizione dell'e-

sperimento casuale.

È opportuno ricordare (vedi CAPITOLO - 15) che poiché 𝑓(𝑋) è

misurabile, 𝑌 = 𝑓(𝑋) è anch’essa una variabile aleatoria definita sull'in-

sieme Ω, caratterizzabile mediante la sua densità di probabilità 𝑝𝑌(𝑦).

Il concetto di valore medio di una funzione di variabile aleatoria

si può estendere al caso di una funzione misurabile su ℝ𝑁 di 𝑁 variabili

aleatorie definite sull'insieme dei risultati di uno stesso esperimento ca-

suale. In questo caso si ha:

𝐸{𝑓(𝑋1, 𝑋2, … , 𝑋𝑁)} = 𝑓(𝑋1, 𝑋2, … , 𝑋𝑁) =

= ∫𝑓(𝑥1, 𝑥2, … , 𝑥𝑁)𝑝𝑋1𝑋2…𝑋𝑁(𝑥1, 𝑥2, … , 𝑥𝑁)𝑑𝑥1𝑑𝑥2…𝑑𝑥𝑁

𝑅𝑁

(16.1.7)

dove 𝑝𝑋1𝑋2…𝑋𝑁(𝑥1, 𝑥2, … , 𝑥𝑁) rappresenta la densità di probabilità con-

giunta delle 𝑁 variabili aleatorie.

Momenti. 16.2 -

Se 𝑓(𝑋) = (𝑋 − 𝛼)𝑛 (con 𝑛 intero ed 𝛼 ∈ ℝ) dalla (16.1.1) si ot-

tiene il momento 𝑛-esimo, 𝜇𝛼,𝑛, riferito ad 𝛼, si pone cioè:

𝜇𝛼,𝑛 = ∫ (𝑥 − 𝛼)𝑛𝑝𝑋(𝑥)𝑑𝑥∞

−∞

(16.2.1)

a patto, ovviamente, che l’integrale che compare nella precedente as-

suma un valore finito. Si può dimostrare che l’esistenza del momento di

ordine 𝑛 comporta quella di tutti i momenti di ordine inferiore.

Page 289: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 16 - Medie Statistiche - 277

Se nella (16.1.2) si pone 𝛼 = 0, essa restituisce il cosiddetto valore

medio della potenza 𝑛-esima, o momento 𝑛-esimo 𝑚𝑛 della variabile aleato-

ria 𝑋:

𝑚𝑛 ≜ 𝜇0,𝑛 = ∫ 𝑥𝑛𝑝𝑋(𝑥)𝑑𝑥∞

−∞

(16.2.2)

In particolare la (14.4.3) comporta che:

𝑚0 = ∫ 𝑝𝑋(𝑥)𝑑𝑥∞

−∞

= 1 (16.2.3)

Per 𝑛 = 1 la (16.2.2) assume la forma:

𝑚1 ≜ 𝑚 = ∫ 𝑥𝑝𝑋(𝑥)𝑑𝑥∞

−∞

(16.2.4)

che prende il nome di valore medio della variabile aleatoria.

Per 𝑛 = 2 la (16.2.2) restituisce il cosiddetto valore quadratico medio:

𝑚2 = ∫ 𝑥2𝑝𝑋(𝑥)𝑑𝑥∞

−∞

(16.2.5)

Se nella (16.2.1) si pone 𝛼 = 𝑚 si ottengono al variare di 𝑛 i mo-

menti centrali 𝑛-esimi della variabile aleatoria:

𝜇𝑛 ≜ (𝑋 − 𝑚1)𝑛 = ∫ (𝑥 − 𝑚1)

𝑛𝑝𝑋(𝑥)𝑑𝑥∞

−∞

(16.2.6)

Risulta: 𝜇0 = 1, 𝜇1 = 0 indipendentemente dalla variabile aleatoria in

considerazione.

La (16.2.6), scritta per 𝑛 = 2, fornisce il momento centrale del se-

condo ordine:

𝜇2 ≜ 𝜎2 = ∫ (𝑥 − 𝑚1)2𝑝𝑋(𝑥)𝑑𝑥

−∞

(16.2.7)

che prende il nome di varianza della variabile aleatoria.

La (16.2.1) può essere ulteriormente elaborata fornendo:

𝜇𝛼,𝑛 = ∫ ∑(−1)𝑘 (𝑛𝑘) 𝑥𝑛−𝑘𝛼𝑘

𝑛

𝑘=0

𝑝𝑋(𝑥)𝑑𝑥∞

−∞

=

=∑(−1)𝑘 (𝑛𝑘) 𝛼𝑘∫ 𝑥𝑛−𝑘𝑝𝑋(𝑥)𝑑𝑥

−∞

𝑛

𝑘=0

=∑(−1)𝑘 (𝑛𝑘)𝛼𝑘𝑚𝑛−𝑘

𝑛

𝑘=0

(16.2.8)

Page 290: Lezioni di TEORIA DEI SEGNALI.pdf

278 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

La precedente mostra che la conoscenza dei momenti fino all’ordine 𝑛

consente di conoscere anche tutti i momenti riferiti ad un reale 𝛼 qual-

siasi.

La (16.2.8) in particolare implica:

𝜎2 =∑(−1)𝑘 (2𝑘)𝑚𝑘 𝑛 𝑚𝑛−𝑘

2

𝑘=0

= 𝑚2 −𝑚2 (16.2.9)

Derivando la (16.2.8) valutata per 𝑛 = 2 rispetto ad 𝛼 si ottiene:

𝑑𝜇𝛼,2𝑑𝛼

= ∑(−1)𝑘 (2𝑘) 𝑘𝛼𝑘−1𝑚2−𝑘

2

𝑘=0

= −2𝑚 + 2𝛼 (16.2.10)

La derivata appena scritta si annulla per 𝛼 = 𝑚, se ne conclude che la

varianza é il minimo momento del secondo ordine.

La radice quadrata della varianza

𝜎 = √𝑚2 −𝑚12 (16.2.11)

prende il nome di scarto quadratico medio o deviazione standard della variabile

aleatoria.

Esempio 16.1

Sia data una variabile aleatoria 𝑋 la cui varianza sia finita. Si mostri che, se

휀 è un reale positivo qualsiasi, vale la seguente disuguaglianza

𝑃𝑟{|𝑋 −𝑚| ≥ 휀} ≤𝜎2

휀2

Esplicitando il primo membro della precedente si ottiene:

∫ 𝑝𝑋(𝑥)𝑑𝑥𝑚−

−∞

+∫ 𝑝𝑋(𝑥)𝑑𝑥∞

𝑚+

≤1

휀2(∫ (𝑥 −𝑚)2𝑝𝑋(𝑥)𝑑𝑥

𝑚−

−∞

+∫ (𝑥 −𝑚)2𝑝𝑋(𝑥)𝑑𝑥∞

𝑚+

)

≤1

휀2(∫ (𝑥 − 𝑚)2𝑝𝑋(𝑥)𝑑𝑥

−∞

) =𝜎2

휀2

per ottenere la quale si é sfruttata la circostanza che (𝑥 − 𝑚)2/휀21 all’in-

terno del dominio di integrazione.

La disuguaglianza appena provata é nota come disuguaglianza di Che-

byshev. Un’immediata conseguenza di essa é che se una variabile aleatoria

Page 291: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 16 - Medie Statistiche - 279

ha varianza nulla, allora essa é uguale al suo valor medio con probabilità

uno.

Si possono anche definire dei momenti assoluti d’ordine 𝑛 riferiti

ad un qualsiasi reale 𝛼 come:

|𝑋 − 𝛼|𝑛 = ∫ |𝑥 − 𝛼|𝑛𝑝𝑋(𝑥)𝑑𝑥∞

−∞

(16.2.12)

anche in questo caso, ponendo 𝛼 = 0, si ottengono i momenti assoluti:

𝜌𝑛 ≜ |𝑋|𝑛 = ∫ |𝑥|𝑛𝑝𝑋(𝑥)𝑑𝑥∞

−∞

(16.2.13)

e, ponendo 𝛼 = 𝑚, si hanno i momenti assoluti centrali.

Esempio 16.2

Siano 𝛼, 𝛽 due reali qualsiasi e 𝑘 un numero naturale; risulta:

0 ≤ ∫ (𝛼|𝑥|𝑘

2 + 𝛽|𝑥|𝑘+2

2 )2𝑝𝑋(𝑥)𝑑𝑥∞

−∞

Quest’ultima fornisce:

0 ≤ ∫ (𝛼2|𝑥|𝑘 + 2𝛼𝛽|𝑥|𝑘+1 + 𝛽2|𝑥|𝑘+2)𝑝𝑋(𝑥)𝑑𝑥∞

−∞

= 𝛼2𝜌𝑘 + 2𝛼𝛽𝜌𝑘+1 + 𝛽2𝜌𝑘+2

la quale comporta che la forma quadratica

𝛼2𝜌𝑘 + 2𝛼𝛽𝜌𝑘+1 + 𝛽2𝜌𝑘+2

sia semidefinita positiva. Pertanto il determinante ad essa associato è non

negativo. Deve quindi essere:

𝜌𝑘+12 ≤ 𝜌𝑘𝜌𝑘+2

Elevando a 𝑘 ambo i membri si ottiene:

𝜌𝑘+12(𝑘+1)

≤ 𝜌𝑘𝑘+1𝜌𝑘+2

𝑘+1

quest’ultima al variare di 𝑘 fornisce le disuguaglianze:

{

𝜌12 ≤ 𝜌0𝜌2;

𝜌24 ≤ 𝜌1

2𝜌32;

𝜌36 ≤ 𝜌2

3𝜌43;

⋯⋯

𝜌𝑘+12(𝑘+1)

≤ 𝜌𝑘𝑘+1𝜌𝑘+2

𝑘+1;

che moltiplicate termine a termine forniscono:

∏𝜌𝑖+12(𝑖+1)

𝑘

𝑖=0

≤∏𝜌𝑖𝑖+1𝜌𝑖+2

𝑖+1

𝑘

𝑖=0

Page 292: Lezioni di TEORIA DEI SEGNALI.pdf

280 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Eliminando dall’ultima disuguaglianza i fattori comuni, e tenendo presente

che 𝜌01 si ottiene:

∏𝜌𝑖+1𝑖+1

𝑘

𝑖=0

∏𝜌𝑖+1𝑖+1

𝑘

𝑖=0

≤ 𝜌0∏𝜌𝑖+1𝑖+2

𝑘−1

𝑖=0

∏𝜌𝑖+1𝑖

𝑘+1

𝑖=1

;

𝜌𝑘+12(𝑘+1)

∏𝜌𝑖+1𝑖

𝑘−1

𝑖=0

≤∏𝜌𝑖+1𝑖

𝑘+1

𝑖=1

;

𝜌𝑘+12(𝑘+1)

∏𝜌𝑖+1𝑖

𝑘−1

𝑖=1

≤ 𝜌𝑘+1𝑘 𝜌𝑘+2

𝑘+1∏𝜌𝑖+1𝑖

𝑘−1

𝑖=1

;

𝜌𝑘+1𝑘+2 ≤ 𝜌𝑘+2

𝑘+1;

l’ultima disuguaglianza ottenuta comporta:

𝜌𝑘+1

𝑘+2

(𝑘+2)(𝑘+1) ≤ 𝜌𝑘+2

𝑘+1

(𝑘+2)(𝑘+1);

𝜌𝑘+1

1

𝑘+1 ≤ 𝜌𝑘+2

1

𝑘+2

Dalla quale si conclude che, indipendentemente dalla variabile aleatoria con-

siderata, se i momenti assoluti esistono, soddisfano la catena di disugua-

glianze:

𝜌1 ≤ 𝜌2

1

2 ≤ 𝜌3

1

3 ≤ ⋯ ≤ 𝜌𝑘+2

1

𝑘+2

Nel caso di una funzione di due variabili aleatorie definite su di

uno stesso esperimento casuale, se si pone: 𝑓(𝑋, 𝑌) = 𝑋𝑝𝑌𝑞

si ottiene un momento congiunto (𝑝 + 𝑞)-esimo

𝑚𝑝𝑞 = 𝑋𝑝𝑌𝑞 = 𝐸{𝑋𝑝𝑌𝑞} = ∫ ∫ 𝑥𝑝𝑦𝑞𝑝𝑋𝑌(𝑥, 𝑦)𝑑𝑥𝑑𝑦

−∞

−∞

(16.2.14)

Ovviamente per 𝑝 = 𝑞 = 0 si ha:

𝑚00 = ∫ ∫ 𝑝𝑋𝑌(𝑥, 𝑦)𝑑𝑥𝑑𝑦∞

−∞

−∞

= 1 (16.2.15)

In maniera analoga alla (16.2.6) possono definirsi i momenti cen-

trali (𝑝 + 𝑞)-esimi del secondo ordine mediante le:

𝜇𝑝𝑞 = 𝐸{(𝑋 − 𝑚𝑋)𝑝(𝑌 − 𝑚𝑌)

𝑞}

= ∫ ∫ (𝑥 −𝑚𝑋)𝑝(𝑦 − 𝑚𝑌)

𝑞𝑝𝑋𝑌(𝑥, 𝑦)𝑑𝑥𝑑𝑦∞

−∞

−∞

(16.2.16)

dove 𝑚𝑋 e 𝑚𝑌 sono i valori medi delle variabili 𝑋 e 𝑌 rispettivamente.

Page 293: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 16 - Medie Statistiche - 281

In particolare il momento centrale 𝜇11 prende il nome di cova-

rianza e risulta:

𝜎𝑋𝑌 ≡ (𝑋 − 𝑚𝑋)(𝑌 − 𝑚𝑌) = 𝑋𝑌 − ��𝑚𝑌 − ��𝑚𝑋 +𝑚𝑋𝑚𝑌

= 𝑋𝑌 − 𝑚𝑋𝑚𝑌 (16.2.17)

Se le due variabili sono statisticamente indipendenti risulta:

𝐸{𝑋𝑝𝑌𝑞} = 𝐸{𝑋𝑝}𝐸{𝑌𝑞} (16.2.18)

Cioè il valore medio del binomio 𝑋𝑝𝑌𝑞 è dato dal prodotto dei valori

medi di 𝑋𝑝 e 𝑌𝑞 .

Esempio 16.3

Sia 𝑌 una variabile aleatoria ottenuta dalla combinazione lineare di 𝑁 va-

riabili aleatorie, 𝑋1, 𝑋2,…,𝑋𝑁 definite sull'insieme dei risultati di uno stesso

esperimento casuale. Sia cioè:

𝑌 =∑𝑎𝑖𝑋𝑖

𝑁

𝑖=1

con 𝑎𝑖 costanti reali.

Il valore medio statistico di 𝑌 è dato da:

�� = ∑𝑎𝑖𝑋��

𝑁

𝑖=1

cioè dalla combinazione lineare effettuata con le stesse costanti 𝑎𝑖 degli 𝑁

valori medi delle variabili aleatorie componenti, indipendentemente dal fatto

che queste siano o meno statisticamente indipendenti.

Per quanto riguarda il valore quadratico medio si ha:

𝑌2 = (∑𝑎𝑖𝑋𝑖

𝑁

𝑖=1

)

2

È:

(∑𝑎𝑖𝑋𝑖

𝑁

𝑖=1

)

2

=∑𝑎𝑖2𝑋𝑖

2

𝑁

𝑖=1

+ ∑ 𝑎𝑚𝑎𝑛𝑋𝑚𝑋𝑛

𝑁

𝑚,𝑛=1(𝑚≠𝑛)

pertanto:

𝑌2 = ∑𝑎𝑖2𝑋𝑖

2𝑁

𝑖=1

+ ∑ 𝑎𝑚𝑎𝑛𝑋𝑚𝑋𝑛

𝑁

𝑚,𝑛=1(𝑚≠𝑛)

Page 294: Lezioni di TEORIA DEI SEGNALI.pdf

282 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

In maniera analoga si può verificare che la varianza vale:

𝜎𝑌2 =∑𝑎𝑖

2𝜎𝑋𝑖2

𝑁

𝑖=1

+ ∑ 𝑎𝑚𝑎𝑛𝜎𝑋𝑚𝑋𝑛

𝑁

𝑚,𝑛=1(𝑚≠𝑛)

In particolare, se le 𝑁 variabili sono statisticamente indipendenti, risulta:

𝑌2 = ∑𝑎𝑖2𝑋𝑖

2𝑁

𝑖=1

+ ∑ 𝑎𝑚𝑎𝑛𝑋𝑚

𝑁

𝑚,𝑛=1(𝑚≠𝑛)

⋅ 𝑋𝑛

e:

𝜎𝑌2 =∑𝑎𝑖

2𝜎𝑋𝑖2

𝑁

𝑖=1

Teorema della media. 16.3 -

Sia 𝑌 = 𝑓(𝑋) una funzione di una variabile aleatoria 𝑋, dove 𝑓(⋅)

è una funzione misurabile definita q.o. in ℝ. La 𝑌 è a sua volta una va-

riabile aleatoria il cui valore medio è dato per la (16.2.4) da:

𝑚𝑌 = ∫ 𝑦𝑝𝑌(𝑦)𝑑𝑦∞

−∞

(16.3.1)

Si scomponga adesso l'asse reale in intervalli elementari E𝑖 = (𝑦𝑖 , 𝑦𝑖 +

𝛥𝑦] a due a due disgiunti, la probabilità che la variabile aleatoria

𝑌 = 𝑓(𝑋) assuma un valore appartenente al generico intervallo E𝑖 , è ov-

viamente uguale alla probabilità che la variabile 𝑋 assuma un valore ap-

partenente all'insieme 𝑓−1(E𝑖) controimmagine di E𝑖

Supponendo per semplicità che la controimmagine in questione

sia costituita da un'unione al più numerabile d’intervalli elementari a due

a due disgiunti di misura 𝛥𝑥𝑖𝑗 , si deduce che:

𝑃𝑟{E𝑖} ≅ 𝑝𝑌(𝑦𝑖)𝛥𝑦 ≅∑𝑝𝑋(𝑥𝑖𝑗)𝛥𝑥𝑖𝑗

𝑁𝑖

𝑗=1

= 𝑃𝑟{𝑓−1(E𝑖)} (16.3.2)

Moltiplicando ambo i membri della precedente per 𝑦𝑖 = 𝑓(𝑥𝑖𝑗) si per-

viene alla:

𝑦𝑖𝑝𝑌(𝑦𝑖)𝛥𝑦 ≅∑𝑓(𝑥𝑖𝑗)𝑝𝑋(𝑥𝑖𝑗)𝛥𝑥𝑖𝑗

𝑁𝑖

𝑗=1

(16.3.3)

Page 295: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 16 - Medie Statistiche - 283

dalla quale si deduce che il contributo di ogni intervallo elementare

all'integrale (16.3.1) è esprimibile come somma di quelli di opportuni in-

tervalli disgiunti nel dominio di 𝑋. Poiché al variare dell'indice 𝑖 viene ri-

coperto l'intero asse reale la cui controimmagine secondo la 𝑓(⋅) è ℝ

stesso, ci si convince facilmente che l'integrale (16.3.1) può essere calco-

lato anche come segue:

∫ 𝑦𝑝𝑌(𝑦)𝑑𝑦∞

−∞

= ∫ 𝑓(𝑥)𝑝𝑋(𝑥)𝑑𝑥∞

−∞

(16.3.4)

che costituisce l’espressione formale del teorema della media.

Il risultato appena ottenuto si può facilmente generalizzare al ca-

so di una variabile aleatoria definita tramite una funzione misurabile su

ℝ𝑁 di 𝑁 variabili aleatorie definite sull'insieme dei risultati di uno stesso

esperimento casuale. Cioè se è 𝑌 = 𝑓(𝑋1, 𝑋2, … 𝑋𝑁), il valor medio di 𝑌

può essere calcolato come segue:

𝑚𝑌 = ∫ 𝑦𝑝𝑌(𝑦)𝑑𝑦∞

−∞

= ∫𝑓(𝑥1, 𝑥2, … , 𝑥𝑁)𝑝𝑋1𝑋2…𝑋𝑁(𝑥1, 𝑥2, … , 𝑥𝑁)𝑑𝑥1𝑑𝑥2…𝑑𝑥𝑁

𝑅𝑁

(16.3.5)

Funzione caratteristica. 16.4 -

Una media di notevole importanza associata ad una variabile alea-

toria 𝑋 è la cosiddetta funzione caratteristica 𝐹𝑋(𝑢) definita come valore

medio statistico della quantità 𝑒𝑗𝑢𝑋. Si ha cioè:

𝐹𝑋(𝑢) = 𝑒𝑗𝑢𝑋 = ∫ 𝑒𝑗𝑢𝑥𝑝𝑋(𝑥)𝑑𝑥

−∞

(16.4.1)

Poiché 𝑝𝑋(𝑥) è una quantità non negativa e 𝑒𝑗𝑢𝑥 ha modulo uni-

tario, dalla precedente risulta:

|∫ 𝑒𝑗𝑢𝑥𝑝𝑋(𝑥)𝑑𝑥∞

−∞

| ≤ ∫ 𝑝𝑋(𝑥)𝑑𝑥∞

−∞

= 1 (16.4.2)

cioè

|𝐹𝑋(𝑢)| ≤ 𝐹𝑋(0) = 1 (16.4.3)

Si ha inoltre

𝐹𝑋∗(𝑢) = 𝐹𝑋(−𝑢) (16.4.4)

Page 296: Lezioni di TEORIA DEI SEGNALI.pdf

284 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Confrontando la (16.4.1) con l'espressione della trasformata di

Fourier si riconosce che vale la seguente relazione:

𝐹𝑋(2𝜋𝑢) = ∫ 𝑒𝑗2𝜋𝑢𝑥𝑝𝑋(𝑥)𝑑𝑥 =∞

−∞

ℱ∗[𝑝𝑋(𝑥)] (16.4.5)

Che può essere facilmente invertita ottenendo:

𝑝𝑋(𝑥) =1

2𝜋∫ 𝐹𝑋

∗(𝑢)𝑒𝑗𝑢𝑥𝑑𝑢∞

−∞

=1

2𝜋∫ 𝐹𝑋(𝑢)𝑒

−𝑗𝑢𝑥𝑑𝑢∞

−∞

(16.4.6)

Le derivate della 𝐹𝑋(𝑢) rispetto 𝑢 valgono:

{

𝑑𝐹𝑋𝑑𝑢

= 𝑗∫ 𝑒𝑗𝑢𝑥𝑥𝑝𝑋(𝑥)𝑑𝑥∞

−∞

;

𝑑2𝐹𝑋𝑑𝑢2

= 𝑗2∫ 𝑒𝑗𝑢𝑥𝑥2𝑝𝑋(𝑥)𝑑𝑥∞

−∞

;

…………………………………𝑑𝑛𝐹𝑋𝑑𝑢𝑛

= 𝑗𝑛∫ 𝑒𝑗𝑢𝑥𝑥𝑛𝑝𝑋(𝑥)𝑑𝑥∞

−∞

;

(16.4.7)

che confrontate con l'espressione (16.2.1) del momento 𝑛 - esimo

di una variabile aleatoria, danno luogo alle:

{

𝑚1 = −𝑗 [

𝑑𝐹𝑋𝑑𝑢

]𝑢=0

;

𝑚2 = − [𝑑2𝐹𝑋𝑑𝑢2

]𝑢=0

;

………………

𝑚𝑛 = (−𝑗)𝑛 [𝑑𝑛𝐹𝑋𝑑𝑢𝑛

]𝑢=0

;

(16.4.8)

Si osservi che, se una variabile aleatoria 𝑋 ammette tutti i momen-

ti, la sua funzione caratteristica 𝐹𝑋(𝑢) è infinitamente derivabile in 𝑢 =

0. Sviluppando la 𝐹𝑋(𝑢) in serie di Mac Laurin si ottiene:

𝐹𝑋(𝑢)

= 𝐹𝑋(0) + [𝑑𝐹𝑋𝑑𝑢

]0𝑢 + [

𝑑2𝐹𝑋𝑑𝑢2

]0

𝑢2

2+ ⋯+ [

𝑑𝑛𝐹𝑋𝑑𝑢𝑛

]0

𝑢𝑛

𝑛!+ ⋯

= 1 + 𝑗𝑢𝑚1 +(𝑗𝑢)2

2𝑚2 +⋯+

(𝑗𝑢)𝑛

𝑛!𝑚𝑛 +⋯

(16.4.9)

Page 297: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 16 - Medie Statistiche - 285

Se ne conclude che la conoscenza di tutti i momenti della variabi-

le aleatoria 𝑋, individua univocamente la sua funzione caratteristica, e

quindi, tramite la (16.4.6), la sua densità di probabilità.

Generalizzando quanto detto in precedenza, è possibile definire la

funzione caratteristica, associata a 𝑁 variabili aleatorie 𝑋1, 𝑋2, … , 𝑋𝑁 defi-

nite sull'insieme dei risultati di uno stesso esperimento casuale, come

media statistica della quantità 𝑒𝑗(𝑢1𝑋1+𝑢2𝑋2+⋯+𝑢𝑁𝑋𝑁) cioè:

𝐹𝑋1,𝑋2,…,𝑋𝑁(𝑢1, 𝑢2, … , 𝑢𝑁)

= ∫ 𝑒𝑗(𝑢1𝑥1+𝑢2𝑥2+⋯+𝑢𝑁𝑥𝑁)

ℝ𝑁

∙ 𝑝𝑋1,𝑋2,…,𝑋𝑁(𝑥1, 𝑥2, … , 𝑥𝑁)𝑑𝑥1𝑑𝑥2…𝑑𝑥𝑁

(16.4.10)

Anche in questo caso la precedente può essere interpretata utilizzando la

trasformata multipla di Fourier della densità di probabilità congiunta

delle 𝑁 variabili aleatorie

𝐹𝑋1,𝑋2,…,𝑋𝑁(2𝜋𝑢1, 2𝜋𝑢2, … ,2𝜋𝑢𝑁)

= ℱ*[𝑝𝑋1,𝑋2,…,𝑋𝑁(𝑥1, 𝑥2, … , 𝑥𝑁)] (16.4.11)

Conseguentemente, la densità di probabilità congiunta, nota la corri-

spondente funzione caratteristica, può essere ottenuta dalla:

𝑝𝑋1,…,𝑋𝑁(𝑥1, … , 𝑥𝑁)

=1

(2𝜋)𝑁∫ 𝐹𝑋1,…,𝑋𝑁(𝑢1, … , 𝑢𝑁)𝑅𝑁

∙ 𝑒−𝑗(𝑢1𝑥1+𝑢2𝑥2+⋯+𝑢𝑁𝑥𝑁)𝑑𝑢1…𝑑𝑢𝑁

(16.4.12)

D'altra parte si ha:

𝑒𝑗∑ 𝑢𝑖𝑥𝑖𝑁𝑖=1

=∏𝑒𝑗𝑢𝑖𝑥𝑖

𝑁

𝑖=1

= (∑(𝑗𝑢1𝑥1)

𝑖1

𝑖1!

𝑖1=0

)(∑(𝑗𝑢2𝑥2)

𝑖2

𝑖2!

𝑖2=0

)…(∑(𝑗𝑢𝑁𝑥𝑁)

𝑖𝑁

𝑖𝑁!

𝑖𝑁=0

)

(16.4.13)

per cui la (16.4.11) diviene:

Page 298: Lezioni di TEORIA DEI SEGNALI.pdf

286 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝐹𝑋1,𝑋2,…,𝑋𝑁(𝑢1, 𝑢2, … , 𝑢𝑁)

= ∑𝑗(𝑖1+𝑖2+⋯𝑖𝑁)

𝑖1! 𝑖2! … 𝑖𝑁!𝑢1𝑖1𝑢2

𝑖2 …𝑢𝑁𝑖𝑁

𝑖1,𝑖2,…,𝑖𝑁=0

⋅ ∫ 𝑥1𝑖1 , 𝑥2

𝑖2 …𝑥𝑁𝑖𝑁𝑝𝑋1,𝑋2,…,𝑋𝑁(𝑥1, 𝑥2, … , 𝑥𝑁)𝑑𝑥1𝑑𝑥2…𝑑𝑥𝑁

𝑅𝑁

(16.4.14)

che utilizzando i momenti congiunti si può riscrivere:

𝐹𝑋1,𝑋2,…,𝑋𝑁(𝑢1, 𝑢2, … , 𝑢𝑁)

= ∑𝑗(𝑖1+𝑖2+⋯𝑖𝑁)

𝑖1! 𝑖2! … 𝑖𝑁!𝑢1𝑖1𝑢2

𝑖2 …𝑢𝑁𝑖𝑁𝑚𝑖1,𝑖2,…,𝑖𝑁

𝑖1,𝑖2,…,𝑖𝑁=0

(16.4.15)

Anche in questo caso quindi la conoscenza di tutti i momenti

congiunti 𝑚𝑖1,𝑖2,…,𝑖𝑁 consente tramite la precedente di determinare la

funzione caratteristica e quindi, la corrispondente densità di probabilità

congiunta.

Esempio 16.4

Si consideri la variabile aleatoria

𝑌 =∑𝑎𝑖𝑋𝑖

𝑁

𝑖=1

già presa in considerazione nell'Esempio 16.1

La sua funzione caratteristica vale:

𝐹𝑌(𝑢) = 𝐸{𝑒𝑗𝑢𝑌} = 𝐸{𝑒𝑗𝑢∑ 𝑎𝑖𝑋𝑖

𝑁𝑖=1 } = 𝐸 {∏𝑒𝑗𝑢𝑎𝑖𝑋𝑖

𝑁

𝑖=1

}

Se le variabili aleatorie 𝑋1, 𝑋2, … , 𝑋𝑁 sono statisticamente indipendenti,

si possono invertire le operazioni di prodotto e di media statistica, ottenendo:

𝐹𝑌(𝑢) =∏𝐸{𝑒𝑗𝑢𝑎𝑖𝑋𝑖}

𝑁

𝑖=1

=∏(𝐸{𝑒𝑗𝑢𝑋𝑖})𝑎𝑖

𝑁

𝑖=1

=∏[𝐹𝑋𝑖(𝑢)]𝑎𝑖

𝑁

𝑖=1

avendo denotato con 𝐹𝑋𝑖(𝑢) la funzione caratteristica associata alla variabile

aleatoria 𝑋𝑖 .

In particolare se 𝑌 è ottenuta dalla somma di 𝑁 variabili aleatorie 𝑋𝑖 sta-

tisticamente indipendenti, la funzione caratteristica 𝐹𝑌(𝑢) si ottiene ponendo

nella precedente 𝑎𝑖 1, (𝑖 = 1,2, … , 𝑁). Si ha quindi:

Page 299: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 16 - Medie Statistiche - 287

𝐹𝑌(𝑢) =∏𝐹𝑋𝑖(𝑢)

𝑁

𝑖=1

che nel caso di due sole variabili si riduce alla:

𝐹𝑌(𝑢) = 𝐹𝑋1(𝑢)𝐹𝑋2(𝑢)

quindi per la (16.4.6) la densità di probabilità di 𝑌 vale:

𝑝𝑌(𝑦) =1

2𝜋∫ 𝐹𝑋1(𝑢)𝐹𝑋2(𝑢)𝑒

−𝑗𝑢𝑦𝑑𝑢∞

−∞

la quale, osservando che 𝑌 = 𝑋1 + 𝑋2 e ricordando l'espressione della 𝐹𝑌(𝑢)

può scriversi:

𝑝𝑌(𝑦) =1

2𝜋∫ 𝐹𝑋1(𝑢) (∫ 𝑒𝑗𝑢𝑥2𝑝𝑋2(𝑥2)

−∞

𝑑𝑥2) 𝑒−𝑗𝑢𝑦𝑑𝑢

−∞

Invertendo l'ordine d’integrazione si ha:

𝑝𝑌(𝑦) = ∫ 𝑝𝑋2(𝑥2) (1

2𝜋∫ 𝐹𝑋1(𝑢)𝑒

−𝑗𝑢(𝑦−𝑥2)𝑑𝑢∞

−∞

)𝑑𝑥2

−∞

Ma poiché:

1

2𝜋∫ 𝐹𝑋1(𝑢)𝑒

−𝑗𝑢(𝑦−𝑥2)𝑑𝑢∞

−∞

= 𝑝𝑋1(𝑦 − 𝑥2)

la 𝑝𝑌(𝑦) si riduce alla:

𝑝𝑌(𝑦) = ∫ 𝑝𝑋2(𝑥2)𝑝𝑋1(𝑦 − 𝑥2)𝑑𝑥2

−∞

In altri termini, la densità di probabilità della somma di due variabili

aleatorie statisticamente indipendenti si ottiene dalla convoluzione delle

densità di probabilità delle variabili componenti.

Più in generale si può verificare che una variabile somma di 𝑁 variabili a

due a due statisticamente indipendenti, presenta una densità di probabilità

data dalla successiva convoluzione di tutte le densità di probabilità delle sin-

gole variabili che la compongono. Cioè:

𝑝𝑌 = 𝑝𝑋1 ∗ 𝑝𝑋2 ∗ … ∗ 𝑝𝑋𝑁

Page 300: Lezioni di TEORIA DEI SEGNALI.pdf

Fig. 17.1 - Densità e distribuzione uniforme

CAPITOLO - 17

VARIABILI ALEATORIE NOTEVOLI

Premessa. 17.1 -

In quel che segue sono riportate le funzioni di probabilità,

densità e distribuzione, di alcune variabili aleatorie, sia continue sia

discrete, in cui di frequente ci s’imbatte nelle applicazioni.

Distribuzione uniforme. 17.2 -

Una variabile aleatoria si dice uniformemente distribuita

nell'intervallo (𝑎, 𝑏) se la sua densità di probabilità si mantiene co-

stante in detto intervallo ed è nulla in tutti i punti esterni ad esso.

Ovviamente, la condizione di normalizzazione (14.4.3) impone che la

densità di probabilità di una variabile uniformemente distribuita, do-

ve non è nulla abbia un'ampiezza pari all'inverso del diametro dell'in-

tervallo (𝑎, 𝑏): (v. Fig. 17.1, a):

𝑝𝑋(𝑥) =1

𝑏 − 𝑎⊓(

𝑥 −𝑎+𝑏

2

𝑏 − 𝑎) (17.2.1)

Essa descrive il comportamento di una quantità aleatoria che assume

con eguale probabilità un qualsiasi valore appartenente ad (𝑎, 𝑏).

La funzione di distribuzione associata ad una variabile aleato-

ria uniformemente distribuita in (𝑎, 𝑏) vale (v. Fig. 17.1, b):

𝑃𝑋(𝑥) =⊓(𝑥 −

𝑎+𝑏

2

𝑏 − 𝑎)𝑥 − 𝑎

𝑏 − 𝑎+ 𝑢(𝑥 − 𝑏) (17.2.2)

Page 301: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali - 289

Il valore medio di una variabile distribuita secondo la (17.2.1)

vale:

�� = ∫ 𝑥𝑝𝑋(𝑥)𝑑𝑥∞

−∞

= ∫𝑥

𝑏 − 𝑎𝑑𝑥

𝑏

𝑎

=𝑎 + 𝑏

2 (17.2.3)

il suo valore quadratico medio:

𝑋2 = ∫ 𝑥2𝑝𝑋(𝑥)𝑑𝑥∞

−∞

= ∫𝑥2

𝑏 − 𝑎𝑑𝑥

𝑏

𝑎

=𝑎2 + 𝑎𝑏 + 𝑏2

3 (17.2.4)

la sua varianza:

𝜎2 = 𝑋2 − ��2 =(𝑎 − 𝑏)2

12 (17.2.5)

Distribuzione esponenziale. 17.3 -

Una varia-

bile aleatoria si

dice a distribu-

zione espo-

nenziale se la sua

densità di pro-

babilità è del tipo

(Fig. 17.2 a):

𝑝𝑋(𝑥) = 𝛼𝑒−𝛼𝑥𝑢(𝑥) (17.3.1)

dove 𝛼 è una costante positiva.

La corrispondente distribuzione di probabilità vale:

𝑃𝑋(𝑥) = (1 − 𝑒−𝛼𝑥)𝑢(𝑥) (17.3.2)

il cui andamento è riportato nella (Fig. 17.2 b).

Il valore medio di una variabile aleatoria di tipo esponenziale

vale:

�� = ∫ 𝛼𝑥𝑒−𝛼𝑥𝑑𝑥∞

0

= [𝑒−𝛼𝑥 (𝑥 +1

𝛼)]∞

0

=1

𝛼 (17.3.3)

il suo valore quadratico medio:

𝑋2 = ∫ 𝛼𝑥2𝑒−𝛼𝑥𝑑𝑥∞

0

= [𝑒−𝛼𝑥 (𝑥2 +2𝑥

𝛼+2

𝛼2)]∞

0

=2

𝛼2 (17.3.4)

e la sua varianza:

Fig. 17.2 - Densità e distribuzione esponenziale

Page 302: Lezioni di TEORIA DEI SEGNALI.pdf

290 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝜎2 = 𝑋2 − ��2 =1

𝛼2 (17.3.5)

Distribuzione di Laplace. 17.4 -

La densità di probabilità in questo caso vale (v. Fig. 17.3 a):

𝑝𝑋(𝑥) =𝛼

2𝑒−𝛼|𝑥| (17.4.1)

dove 𝛼 è una costante positiva.

La distribuzione di probabilità risulta quindi: (v. Fig. 17.3 b):

𝑃𝑋(𝑥) =1

2+1

2sgm(𝑥)(1 − 𝑒−𝛼|𝑥|) (17.4.2)

La variabile aleatoria in questione ha per evidenti motivi di

simmetria valore medio nullo. Il suo valore quadratico medio è ugua-

le alla sua varianza che come si deduce facilmente vale:

𝜎2 =4

𝛼2 (17.4.3)

Distribuzione normale o gaussiana. 17.5 -

Una variabile aleatoria si

dice gaussiana o normale se la sua

densità di probabilità è del tipo:

𝑝𝑋(𝑥)

=1

√2𝜋𝜎2𝑒−(𝑥−𝑚)2

2𝜎2 (17.5.1)

qualunque sia 𝑚 ∈ ℝ e 𝜎2 ∈ ℝ+.

L'andamento della densità di

Fig. 17.3 - Densità e distribuzione di Laplace

Fig. 17.4 – ddp gaussiane per diversi valo-ri di media e varianza.

Page 303: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali - 291

probabilità di una variabile gaussiana per alcuni valori dei parametri

𝑚 e 𝜎2 è mostrato in Fig. 17.4.

La funzione di distribuzione di probabilità di una variabile

aleatoria gaussiana vale:

𝑃𝑋(𝑥) =1

√2𝜋𝜎2∫ 𝑒

−(𝑧−𝑚)2

2𝜎2 𝑑𝑧𝑥

−∞

(17.5.2)

L'integrale che com-

pare nella preceden-

te non può essere

calcolato in forma

chiusa. Tuttavia esso

si può esprimere in

termini della cosid-

detta funzione d’errore,

che è definita come

segue(vedi Fig. 17.5):

erf(𝑥) =2

√𝜋∫ 𝑒−𝑢

2d𝑢

𝑥

0

(17.5.3)

Infatti, effettuando nell'integrale che compare nella (17.5.2) la se-

guente trasformazione di variabili:

𝑢 =𝑧 − 𝑚

√2𝜎2 (17.5.4)

Si ottiene:

P𝑋(𝑥)

=1

√𝜋∫ 𝑒−𝑢

2𝑑𝑢 =

1

√𝜋(∫ 𝑒−𝑢

2𝑑𝑢

0

−∞

+∫ 𝑒−𝑢2𝑑𝑢

𝑥−𝑚

√2𝜎

0

)

𝑥−𝑚

√2𝜎

−∞

(17.5.5)

Tenuto conto che, com’è noto (vedi Esempio 17.1):

∫ 𝑒−𝑢2𝑑𝑢

0

−∞

= ∫ 𝑒−𝑢2𝑑𝑢

0

=√𝜋

2 (17.5.6)

si può ancora scrivere:

P𝑋(𝑥) =1

2{1 +

2

√𝜋∫ 𝑒−𝑢

2𝑑𝑢

𝑥−𝑚

√2𝜎

0

} (17.5.7)

Fig. 17.5 - Funzioni d’errore e complementare d’errore.

Page 304: Lezioni di TEORIA DEI SEGNALI.pdf

292 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Da quest'ultima innanzi tutto discende che la (17.5.1) verifica

la condizione di normalizzazione, indipendentemente dal valore della

costante 𝑚 e dalla scelta di 𝜎2, in quanto 𝑃𝑋(∞) = 1.

Inoltre ricordando la (17.5.3) si constata facilmente che la pre-

cedente può essere riscritta nella forma:

P𝑋(𝑥) =1

2[1 + erf (

𝑥 − 𝑚

√2𝜎2)] (17.5.8)

Utilizzando la funzione complementare d’errore:

erfc(𝑥) = 1 − erf(𝑥) =2

√𝜋∫ 𝑒−𝑢

2𝑑𝑢

𝑥

(17.5.9)

il cui andamento è riportato nella stessa Fig. 17.5, la (17.5.8) può scri-

versi anche come segue:

P𝑋(𝑥) = 1 −1

2erfc (

𝑥 − 𝑚

√2𝜎2) (17.5.10)

Dalle (17.5.3) e (17.5.9) si deduce facilmente che la erf(𝑥) e la

erfc(𝑥) soddisfano rispettivamente le seguenti condizioni di simme-

tria:

erf(−𝑥) = −erf(𝑥)

erfc(−𝑥) = 2 − erfc(𝑥) (17.5.11)

Il valore medio di una variabile aleatoria gaussiana vale:

�� = ∫ 𝑥1

√2𝜋𝜎2𝑒−(𝑥−𝑚)2

2𝜎2 𝑑𝑥

−∞

= ∫ (𝑧 + 𝑚)1

√2𝜋𝜎2𝑒−𝑧2

2𝜎2𝑑𝑧

−∞

=

= ∫ 𝑧1

√2𝜋𝜎2𝑒−𝑧2

2𝜎2𝑑𝑧

−∞

+𝑚∫1

√2𝜋𝜎2𝑒−𝑧2

2𝜎2𝑑𝑧

−∞

= 𝑚

(17.5.12)

per dedurre il quale, si è effettuato il cambiamento di variabili

𝑧 = 𝑥 −𝑚 e si è considerato che la funzione che compare nel primo

integrale del penultimo membro ha simmetria dispari, mentre il se-

condo integrale vale uno, in quanto la funzione integranda si può in-

tendere come la densità di probabilità di una variabile aleatoria gaus-

siana con parametro 𝑚 = 0.

Al fine di dedurre la varianza di una variabile gaussiana si os-

servi che la condizione di normalizzazione consente di scrivere:

Page 305: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali - 293

I(𝑚) = ∫1

√2𝜋𝜎2𝑒−(𝑥−𝑚)2

2𝜎2 𝑑𝑥∞

−∞

= 1 (17.5.13)

Derivando due volte ambo i membri della precedente rispetto ad 𝑚

si ottiene:

𝑑I

𝑑𝑚= ∫

1

√2𝜋𝜎2

(𝑥 − 𝑚)

𝜎2𝑒−(𝑥−𝑚)2

2𝜎2 𝑑𝑥∞

−∞

= 0

𝑑2I

𝑑𝑚2= −∫

1

𝜎2√2𝜋𝜎2𝑒−(𝑥−𝑚)2

2𝜎2 𝑑𝑥∞

−∞

+

+∫1

√2𝜋𝜎2

(𝑥 − 𝑚)2

𝜎4𝑒−(𝑥−𝑚)2

2𝜎2 𝑑𝑥∞

−∞

= 0

(17.5.14)

Da quest'ultima discende:

∫1

√2𝜋𝜎2

(𝑥 − 𝑚)2

𝜎4𝑒−(𝑥−𝑚)2

2𝜎2 𝑑𝑥∞

−∞

=1

𝜎2∫ 𝑝𝑋(𝑥)𝑑𝑥∞

−∞

=1

𝜎2 (17.5.15)

da cui si ottiene:

∫(𝑥 − 𝑚)2

√2𝜋𝜎2𝑒−(𝑥−𝑚)2

2𝜎2 𝑑𝑥∞

−∞

= ∫ (𝑥 −𝑚)2𝑝𝑋(𝑥)𝑑𝑥∞

−∞

= 𝜎2 (17.5.16)

Il parametro 𝜎2 che compare nella (17.5.1)rappresenta quindi

la varianza della variabile aleatoria.

Il valore quadratico medio vale ovviamente:

𝑋2 = 𝜎2 +𝑚2 (17.5.17)

Esempio 17.1

Si consideri l’integrale improprio:

𝐼 = ∫ 𝑒−𝑥2𝑑𝑥

−∞

= 2∫ 𝑒−𝑥2𝑑𝑥

0

Esso esiste finito in quanto la funzione integranda é infinitesima di ordi-

ne infinito.

Al fine del calcolo di detto integrale si osservi che vale la catena di

uguaglianze:

𝐼

2= ∫ 𝑒−𝑥

2𝑑𝑥

0

= √(∫ 𝑒−𝑥2𝑑𝑥

0

)

2

= √∫ ∫ 𝑒−(𝑥2+𝑦2)𝑑𝑥

0

𝑑𝑦∞

0

L’integrale che compare all’ultimo membro della precedente come si no-

ta facilmente è esteso al primo quadrante del piano (𝑂, 𝑥, 𝑦) passando al

sistema di coordinate polari si ottiene infine:

Page 306: Lezioni di TEORIA DEI SEGNALI.pdf

294 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝐼 = 2√∫ ∫ 𝑒−𝜌2𝜌𝑑𝜌

0

𝑑𝜗

𝜋

2

0

= 2√𝜋

2∫ 𝑒−𝜌

2𝜌𝑑𝜌

0

= √𝜋[−𝑒−𝜌2]0∞ = √𝜋

Esempio 17.2

Sia X una variabile aleatoria caratterizzata dalla seguente densità di

probabilità gaussiana:

𝑝𝑋(𝑥) =1

√2𝜋𝑒−

𝑥2

2

Si vuole calcolare la densità di probabilità condizionata 𝑝𝑋|𝐸(𝑥), dove 𝐸

denota l'evento:

E = {𝑋 ≥ 0}

Al fine di calcolare la densità di probabilità cercata si procede al cal-

colo della corrispondente funzione di distribuzione di probabilità

𝑃𝑋|𝐸(𝑥),.

Sulla base della (13.3.4), si

può scrivere:

𝑃𝑋|E(𝑥) = Pr{𝑋 ≤ 𝑥|E}

=Pr{{𝑋 ≤ 𝑥} ∩ E}

Pr{E}

D'altra parte è facile verificare

che:

𝑥 > 0 ⇒ {𝑋 ≤ 𝑥} ∩ E = {0 ≤ 𝑋 ≤ 𝑥}

𝑥 < 0 ⇒ {𝑋 ≤ 𝑥} ∩ E = ∅

Di conseguenza si ha:

𝑃𝑋|E(𝑥) =Pr{0 ≤ 𝑋 ≤ 𝑥}

Pr{E}u(𝑥)

Osservando adesso che per la (14.4.2):

Pr{𝑋 ∈ [0, 𝑥]} = ∫1

√2𝜋

𝑥

0

𝑒−𝑧2

2 𝑑𝑧

e

Pr{E} = ∫1

√2𝜋

0

𝑒−𝑧2

2 𝑑𝑧 =1

2

si deduce:

𝑃𝑋|𝐸(𝑥) = 2u(𝑥)∫1

√2𝜋

𝑥

0

𝑒−𝑧2

2 𝑑𝑧

Infine derivando la precedente rispetto a x si ottiene:

Fig.E 17.1

Page 307: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali - 295

𝑝𝑋|E(𝑥) = u(𝑥)√2

𝜋𝑒−

𝑥2

2

il cui andamento è riportato in Fig.E 17.1 insieme con quello della densi-

tà di probabilità pX(x) .

Distribuzione di Rayleigh. 17.6 -

Una variabile aleatoria è distribuita secondo Rayleigh se la sua

densità di probabilità è del tipo:

𝑝𝑋(𝑥) =𝑥

𝜎2𝑒−𝑥2

2𝜎2u(𝑥) (17.6.1)

Si deduce facilmente che la sua funzione di distribuzione di probabi-

lità vale:

𝑃𝑋(𝑥) = (1 − 𝑒−𝑥2

2𝜎2) u(𝑥) (17.6.2)

Nella Fig. 17.6 sono riportati gli andamenti di 𝑝𝑋(𝑥) e di 𝑃𝑋(𝑥)

rispettivamente per diversi valori del parametro 𝜎2.

Il valore medio di 𝑋 si può calcolare facilmente se si tiene con-

to della (17.5.16)in cui si pone 𝑚 = 0. Risulta infatti:

�� = ∫𝑥2

𝜎2𝑒−𝑥2

2𝜎2𝑑𝑥∞

0

=1

2∫

𝑥2

𝜎2𝑒−𝑥2

2𝜎2𝑑𝑥∞

−∞

= √𝜋

2𝜎2∫

𝑥2

√2𝜋𝜎2𝑒−𝑥2

2𝜎2𝑑𝑥∞

−∞

= √𝜋

2𝜎2𝜎2 = √

𝜋𝜎2

2

(17.6.3)

Il valore quadratico medio vale:

Fig. 17.6 – Densità e distribuzione di Rayleigh.

Page 308: Lezioni di TEORIA DEI SEGNALI.pdf

296 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑋2 = ∫𝑥3

𝜎2𝑒−𝑥2

2𝜎2𝑑𝑥∞

0

= [(𝑥2 + 2𝜎2)𝑒−𝑥2

2𝜎2]∞

0

= 2𝜎2 (17.6.4)

Distribuzione di Bernoulli. 17.7 -

Una variabile aleatoria discreta è di Bernoulli se essa può as-

sumere solo due valori 𝑥0 e 𝑥1 con probabilità 𝑝 e 𝑞 = 1 − 𝑝 rispetti-

vamente.

La distribuzione e la densità di probabilità valgono rispettiva-

mente:

𝑃𝑋(𝑥) = 𝑝u(𝑥 − 𝑥0) + 𝑞u(𝑥 − 𝑥1) (17.7.1)

e

𝑝𝑋(𝑥) = 𝑝𝛿(𝑥 − 𝑥0) + 𝑞𝛿(𝑥 − 𝑥1) (17.7.2)

Il valore medio e il valore quadratico medio di una variabile di

Bernoulli valgono rispettivamente:

�� = 𝑥0𝑝 + 𝑥1𝑞 (17.7.3)

𝑋2 = 𝑥02𝑝 + 𝑥1

2𝑞 (17.7.4)

che nel caso particolare in cui i due valori che la variabile aleatoria

può assumere siano equiprobabili si scrivono:

�� =𝑥0 + 𝑥12

(17.7.5)

𝑋2 =𝑥02 + 𝑥1

2

2 (17.7.6)

Si osservi che ad eccezione del caso banale in cui 𝑝 o 𝑞 siano

nulli il valore medio non coincide con un valore che può essere as-

sunto dalla variabile aleatoria.

Distribuzione binomiale. 17.8 -

Sia dato un esperimento casuale 𝕊 il cui insieme dei risultati Ω

abbia come generico elemento una 𝑛-upla di risultati ottenuti da 𝑛 ri-

petizioni di uno stesso esperimento casuale. A titolo esemplificativo

si pensi all'esperimento casuale consistente in 𝑛 lanci di una moneta.

Ad 𝕊 si associ quindi la variabile aleatoria 𝑋 ottenuta dalla

somma di 𝑛 variabili aleatorie 𝑋𝑖 identiche, ciascuna definita su uno

degli esperimenti elementari di cui 𝕊 è composto.

Page 309: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali - 297

Le variabili 𝑋𝑖 si assume siano di Bernoulli. Si può quindi por-

re:

Pr{𝑋𝑖 = 1} = 𝑝; Pr{𝑋𝑖 = 0} = 𝑞 = 1 − 𝑝 (17.8.1)

La variabile aleatoria 𝑋 = ∑ 𝑋𝑖𝑛𝑖=1 è pertanto di tipo discreto e

può assumere soltanto valori appartenenti all'insieme {0,1, … , 𝑛}.

Ammettendo inoltre che il risultato ottenuto nella 𝑖-esima ri-

petizione dell’esperimento ementare, sia statisticamente indipendente

da quelli ottenuti nelle restanti 𝑛 − 1 ripetizioni, la probabilità che 𝑋

assuma il valore 𝑘, (0 ≤ 𝑘 ≤ 𝑛) dipende dalla circostanza che 𝑘 va-

riabili 𝑋𝑖 assumano il valore 1 e le rimanenti il valore 0. È evidente

che la probabilità di un tale evento vale 𝑝𝑘𝑞𝑛−𝑘 = 𝑝𝑘(1 − 𝑝)𝑛−𝑘.

D'altra parte ci sono (𝑛𝑘) =

𝑛!

𝑘!(𝑛−𝑘)! modi distinti per ottenere tale ri-

sultato; di conseguenza si ha:

Pr{𝑋 = 𝑘} = (𝑛𝑘) 𝑝𝑘(1 − 𝑝)𝑛−𝑘 (17.8.2)

che costituisce la cosiddetta distribuzione (di massa) binomiale.

Si verifica facilmente che la condizione di normalizzazione è

soddisfatta. Infatti risulta:

∑Pr{𝑋 = 𝑘}

𝑛

𝑘=0

=∑(𝑛𝑘) 𝑝𝑘𝑞𝑛−𝑘

𝑛

𝑘=0

= (𝑝 + 𝑞)𝑛 = 1 (17.8.3)

Il valor medio di 𝑋 si può calcolare facilmente esso è infatti

dato dalla somma dei valori medi delle variabili aleatorie di cui 𝑋 è la

somma:

�� =∑𝑋𝑖

𝑛

𝑖=1

=∑𝑋��

𝑛

𝑖=1

=∑(1𝑝 + 0𝑞) =

𝑛

𝑖=1

𝑛𝑝 (17.8.4)

Anche la varianza si può calcolare facilmente in virtù del fatto

che le 𝑋𝑖 sono mutuamente statisticamente indipendenti. Si ha:

𝜎𝑋2 =∑𝜎𝑋𝑖

2

𝑛

𝑖=1

=∑(𝑝 − 𝑝2) =

𝑛

𝑖=1

𝑛𝑝𝑞 (17.8.5)

Il valor quadratico medio vale:

𝑋2 = 𝜎𝑋2 + ��2 = 𝑛𝑝𝑞 + 𝑛2𝑝2 (17.8.6)

Page 310: Lezioni di TEORIA DEI SEGNALI.pdf

298 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Distribuzione di Poisson. 17.9 -

Una variabile aleatoria discreta, che può assumere un qualsiasi

valore intero non negativo, che sia caratterizzata da una distribuzione

di massa del tipo

Pr{𝑥 = 𝑛} = 𝑒−𝛬𝛬𝑛

𝑛!; 𝑛 = 0,1,2, … (17.9.1)

prende il nome di variabile di Poisson con parametro 𝛬 > 0.

La corrispondente densità di probabilità è data dalla seguente

sequenza di delta di Dirac:

𝑝𝑋(𝑥) = 𝑒−𝛬∑

𝛬𝑛

𝑛!𝛿(𝑥 − 𝑛)

𝑛=0

(17.9.2)

La sua funzione di distribuzione vale:

𝑃𝑋(𝑥) = 𝑒−𝛬∑𝛬𝑛

𝑛!𝑢(𝑥 − 𝑛)

𝑛=0

(17.9.3)

Ricordando che 𝑒𝑥 = ∑𝑥𝑛

𝑛!∞𝑛=0 , si deduce facilmente che il valor me-

dio di una variabile di Poisson vale:

�� = 𝑒−𝛬∑𝑛𝛬𝑛

𝑛!

𝑛=0

= 𝛬𝑒−𝛬∑𝛬𝑛−1

(𝑛 − 1)!

𝑛=1

= 𝛬 (17.9.4)

il suo valore quadratico medio:

𝑋2 = 𝑒−𝛬∑𝑛2𝛬𝑛

𝑛!

𝑛=0

= 𝛬𝑒−𝛬∑𝑛𝛬𝑛−1

(𝑛 − 1)!

𝑛=1

= 𝛬𝑒−𝛬∑(𝑛 − 1)𝛬𝑛−1

(𝑛 − 1)!

𝑛=1

+ 𝛬𝑒−𝛬∑𝛬𝑛−1

(𝑛 − 1)!

𝑛=1

= 𝛬2𝑒−𝛬∑𝛬𝑛−2

(𝑛 − 2)!

𝑛=2

+ 𝛬𝑒−𝛬∑𝛬𝑛−1

(𝑛 − 1)!

𝑛=1

= 𝛬2 + 𝛬

(17.9.5)

infine la sua varianza risulta:

𝜎2 = 𝛬 (17.9.6)

Page 311: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali - 299

Esempio 17.3

Si vuole caratterizzare il traffico telefonico in arrivo ad una centrale.

A tal fine si denoti con n il numero di telefonate in arrivo nell'intervallo

di tempo (0, 𝑡).

Per determinare la statistica di questo processo è opportuno introdurre

le seguenti ipotesi:

a) il numero di telefonate in arrivo in intervalli di tempo disgiunti sono

statisticamente indipendenti;

b) il numero di telefonate in arrivo nell'intervallo (𝑡, 𝑡 + Δ𝑡) dipende solo

dalla durata Δ𝑡 e non dall'istante iniziale 𝑡.

c) Se Δ𝑡 è sufficientemente piccolo, la probabilità che in (0, Δ𝑡) arrivi

una sola telefonata è pari a 𝜆Δ𝑡; mentre la probabilità che nello stesso in-

tervallo di tempo pervenga più di una chiamata è un infinitesimo di ordi-

ne superiore a Δ𝑡 ciò significa anche che la probabilità che in un interval-

lo di durata . Δ𝑡 non giunga nessuna chiamata vale, a meno di infinitesi-

mi di ordine superiore, 1 − 𝜆𝛥𝑡

Detta 𝑃𝑛(𝑡) la probabilità che, nell'intervallo (0, 𝑡), arrivino 𝑛 chia-

mate si consideri l'evento: “Nell’intervallo (0, 𝑡 + Δ𝑡) pervengono 𝑛

chiamate. Tale evento, per le ipotesi fatte, si può verificare solo in uno

dei seguenti modi:

1) in (0, 𝑡) sono pervenute n chiamate e in (𝑡, 𝑡 + Δ𝑡) non ne è pervenuta

alcuna;

2) in (0, 𝑡) vi sono state 𝑛 − 1 chiamate e in (𝑡, 𝑡 + Δ𝑡) una sola.

Poiché gli eventi 1) e 2) si escludono a vicenda, per la legge delle

probabilità composte, e per le ipotesi a), b) e c) si può scrivere:

𝑎) 𝑃𝑛(𝑡 + 𝛥𝑡) = 𝑃𝑛(𝑡)[1 − 𝜆𝛥𝑡] + 𝑃𝑛−1(𝑡)[𝜆𝛥𝑡]; 𝑛 > 0

Nel caso di 𝑛 = 0 la precedente deve essere modificata come segue:

𝑏) 𝑃0(𝑡 + 𝛥𝑡) = 𝑃0(𝑡)[1 − 𝜆𝛥𝑡]; 𝑛 = 0

Dalle (a) e (b) discende:

{

𝑃𝑛(𝑡 + 𝛥𝑡) − 𝑃𝑛(𝑡)

𝛥𝑡= −𝜆𝑃𝑛(𝑡) + 𝜆𝑃𝑛−1(𝑡); 𝑛 ≥ 1

𝑃0(𝑡 + 𝛥𝑡) − 𝑃0(𝑡)

𝛥𝑡= −𝜆𝑃0(𝑡); 𝑛 = 0

dalle quali, passando al limite per Δ𝑡 → 0, si ottiene il seguente sistema

di equazioni differenziali alle differenze:

𝑐) {

𝑑𝑃𝑛(𝑡)

𝑑𝑡= −𝜆𝑃𝑛(𝑡) + 𝜆𝑃𝑛−1(𝑡); 𝑛 ≥ 1

𝑑𝑃0(𝑡)

𝑑𝑡= −𝜆𝑃0(𝑡); 𝑛 = 0

Page 312: Lezioni di TEORIA DEI SEGNALI.pdf

300 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

cui si associa la seguente condizione iniziale:

𝑑) 𝑃𝑛(0) = {1; 𝑛 = 00; 𝑛 ≥ 1

che corrisponde alla condizione che all'istante iniziale (𝑡 = 0) non vi

siano chiamate in arrivo.

Per risolvere il sistema in oggetto basta trasformare secondo Laplace

la prima delle (c). Denotando con

��𝑛(𝑠) = 𝔏{𝑃𝑛(𝑡)}

la trasformata di Laplace di 𝑃𝑛(𝑡) si ha:

𝑠��𝑛(𝑠) − 𝑃𝑛(0) = −𝜆��𝑛(𝑠) + 𝜆��𝑛−1(𝑠); 𝑛 > 0

che, tenendo conto della condizione iniziale, può essere riscritta nella

forma:

𝑠��𝑛(𝑠) + 𝜆��𝑛(𝑠) = 𝜆��𝑛−1(𝑠); 𝑛 > 0

Si ottiene allora successivamente:

��𝑛(𝑠) =𝜆��𝑛−1(𝑠)

𝑠 + 𝜆=𝜆2��𝑛−2(𝑠)

(𝑠 + 𝜆)2= ⋯ =

𝜆𝑛��0(𝑠)

(𝑠 + 𝜆)𝑛

D'altra parte, trasformando la seconda delle (c), si ha:

𝑠��0(𝑠) − 𝑃0(0) = −𝜆��0(𝑠)

che, in virtù della (d), fornisce:

��0(𝑠) =𝑃0(0)

𝑠 + 𝜆=

1

𝑠 + 𝜆

È pertanto:

Fig.E 17.2

Page 313: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 18 - Caratterizzazione Statistica dei Segnali - 301

��𝑛(𝑠) =𝜆𝑛

(𝑠 + 𝜆)𝑛+1

da cui, antitrasformando, si deduce:

𝑃𝑛(𝑡) = 𝑒−𝜆𝑡

(𝜆𝑡)𝑛

𝑛!u(𝑡); 𝑛 ≥ 0

Si ottiene così una distribuzione di Poisson con parametro t. Gli an-

damenti di Pn ( t ) per alcuni valori di n sono riportati in Fig.E 17.2

Page 314: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 18

CARATTERIZZAZIONE STATISTICA DEI SEGNALI

Segnale aleatorio. Funzioni di probabilità del pri-18.1 - mo ordine.

Sia dato un esperimento casuale individuato da uno spazio di

probabilità S = (Ω, 𝓔, Pr). Per segnale aleatorio reale s’intende un'ap-

plicazione che fa corrispondere a ciascun possibile risultato 휁 ∈ Ω

dell'esperimento casuale una funzione reale del tempo:

∀휁 ∈ Ω ∃ 𝑠(𝑡, 휁) | T ⊆ ℝ → ℝ (18.1.1)

tale da identificare una variabile aleatoria 𝑠(𝑡, 휁) per ogni fissato

𝑡 ∈ T.

Il sottoinsieme

T può coincidere

con l’asse reale, o

essere in esso con-

tenuto.

Da quanto det-

to discende che se

si fissa un valore di

𝑡 il segnale aleato-

rio individua una variabile aleatoria su Ω; mentre se si fissa un risulta-

to 휁 si ottiene una funzione della sola variabile 𝑡, 𝑠(𝑡, 휁), che costitui-

sce una manifestazione del segnale come è schematicamente indicato nel-

la Fig. 18.1.

In quel che segue un segnale aleatorio verrà denotato talvolta

con 𝑠(𝑡), sottintendendo la dipendenza dal risultato dell’esperimento

casuale 휁. Dal contesto sarà chiaro quando ci si sta riferendo ad una

variabile casuale, 𝑡 assegnato, o a ad una particolare manifestazione,

휁 fissato.

Ad esempio si consideri il segnale aleatorio la cui generica

manifestazione è data dalla:

𝑠(𝑡, 𝜑) = cos(2𝜋𝑓0𝑡 + 𝜑) (18.1.2)

Fig. 18.1 - Generazione di un segnale aleatorio.

Page 315: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 303

dove 𝜑 è una variabile aleatoria che assume valori nell'intervallo

[0,2𝜋]. In questo caso le manifestazioni del segnale sono costituite da

tutte le possibili cosinusoidi di frequenza 𝑓0 ottenute in corrispon-

denza ai possibili valori di 𝜑. In Fig. 18.2, a titolo e-

semplificativo, si sono ripor-

tate tre possibili manifesta-

zioni di un segnale 𝑠(𝑡, 휁).

Con riferimento alla figura, si

consideri l'evento E𝑥 =

{𝑠(𝑡, 휁)|𝑠(𝑡, 휁) ≤ 𝑥} costituito

da tutte le manifestazioni del

segnale che all’istante 𝑡 as-

sumono un valore non maggiore di 𝑥. Per il segnale di Fig. 18.2, la

manifestazione 𝑠(𝑡, 휁2) e la 𝑠(𝑡, 휁3) appartengono a E𝑥 mentre la

𝑠(𝑡, 휁1) non vi appartiene.

La probabilità che si verifichi l’evento E𝑥 dipende dal valore 𝑥

e dall’istante 𝑡, essa si può quindi esprimere nella forma:

Pr{E𝑥} = 𝑃𝑠(𝑡)(𝑥) (18.1.3)

La funzione 𝑃𝑠(𝑡)(𝑥), definita nella (18.1.3), costituisce la distri-

buzione di probabilità del primo ordine associata al segnale 𝑠(𝑡). Ci si ren-

de facilmente conto che la 𝑃𝑠(𝑡)(𝑥) coincide con la funzione di distri-

buzione di probabilità della variabile aleatoria individuata dal segnale

in corrispondenza all’istante 𝑡.

Alla 𝑃𝑠(𝑡)(𝑥) si può associare una densità di probabilità del

primo ordine 𝑝𝑠(𝑡)(𝑥) così definita:

𝑝𝑠(𝑡)(𝑥) =𝜕𝑃𝑠(𝑡)(𝑥)

𝜕𝑥 (18.1.4)

in quanto sia 𝑝𝑠(𝑡)(𝑥) sia 𝑃𝑠(𝑡)(𝑥) sono in genere funzioni anche del-

l'istante 𝑡 in cui si osserva il segnale. È opportuno inoltre sottolineare

che la derivazione nella (18.1.4) va intesa in senso generalizzato, la

presenza d’eventuali discontinuità non eliminabili nella 𝑃𝑠(𝑡)(𝑥) si tra-

duce infatti nella presenza di delta di Dirac di peso e posizione op-

portuni nella corrispondente densità 𝑝𝑠(𝑡)(𝑥).

Fig. 18.2 - Manifestazioni di un segnale aleatorio

Page 316: Lezioni di TEORIA DEI SEGNALI.pdf

304 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Si osservi che la 𝑃𝑠(𝑡)(𝑥) è una funzione non decrescente di 𝑥,

pertanto, qualunque sia l'istante 𝑡, per tutti i valori di 𝑥 in cui la

𝑃𝑠(𝑡)(𝑥) è derivabile in senso ordinario, risulta:

𝑝𝑠(𝑡)(𝑥) ≥ 0 (18.1.5)

Inoltre i pesi delle eventuali delta di Dirac presenti nella 𝑝𝑠(𝑡)(𝑥) non

possono essere negativi.

Vale la condizione:

𝑃𝑠(𝑡)(+∞) = 1 (18.1.6)

che dà conto del fatto che i valori assunti da una qualsiasi manifesta-

zione del segnale appartengono certamente ad ℝ per ogni 𝑡 ∈ T.

Deve inoltre necessariamente essere:

𝑃𝑠(𝑡)(−∞) = 0 (18.1.7)

in quanto la probabilità che in un qualunque istante 𝑡 risulti 𝑠(𝑡) =

−∞ è nulla (evento impossibile).

La (18.1.4) e la (18.1.7) consentono di scrivere:

𝑃𝑠(𝑡)(𝑥) = ∫ 𝑝𝑠(𝑡)(𝑦)𝑑𝑦𝑥

−∞

(18.1.8)

Inoltre, indipendentemente dal valore di 𝑡 la (18.1.6) si traduce

per la ps(t )(x) nella condizione di normalizzazione:

∫ 𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

= 1 (18.1.9)

La probabilità che il segnale, in un assegnato istante 𝑡, assuma

un valore appartenente all’intervallo (𝑎, 𝑏] vale:

Pr{𝑠(𝑡) ∈ (𝑎, 𝑏]} = 𝑃𝑠(𝑡)(𝑏) − 𝑃𝑠(𝑡)(𝑎) = ∫ 𝑝𝑠(𝑡)(𝑥)𝑑𝑥𝑏

𝑎

(18.1.10)

Esempio 18.1

Si consideri il segnale:

𝑠(𝑡, 𝜏) =⊓ (𝑡 − 𝜏

𝑇)

dove 𝜏 rappresenta una variabile aleatoria caratterizzata da una densità di

probabilità del primo ordine data da 𝑝𝜏(휂).

Page 317: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 305

La generica manife-

stazione del segnale è ri-

portata in Fig.E 18.1. Da

tale figura si deduce che,

in corrispondenza ad un

certo istante 𝑡, 𝑠(𝑡, 𝜏)

può assumere solo due

valori e precisamente:

{𝑠(𝑡, 𝜏) = 1; 𝑡 −

𝑇

2≤ 𝜏 ≤ 𝑡 +

𝑇

2𝑠(𝑡, 𝜏) = 0; altrove

Ciò significa che la probabilità che 𝑠(𝑡, 𝜏) assuma in un certo istante il

valore 1 è data dalla:

𝑃1(𝑡) ≡ 𝑃𝑟{𝑠(𝑡, 𝜏) = 1} = Pr {𝑡 −𝑇

2≤ 𝜏 ≤ 𝑡 +

𝑇

2}

mentre la probabilità che 𝑠(𝑡, 𝜏) assuma il valore 0 vale:

𝑃0(𝑡) ≡ Pr{𝑠(𝑡, 𝜏) = 0} = 1 − Pr{𝑠(𝑡, 𝜏) = 1}

dal momento che gli eventi 𝑠(𝑡, 𝜏)=0 e 𝑠(𝑡, 𝜏)=1 sono mutuamente esclu-

sivi.

Si ha:

𝑃1(𝑡) = ∫ 𝑝𝜏(휂)𝑑휂𝑡+

𝑇

2

𝑡−𝑇

2

Ciò premesso si consideri la funzio-

ne di distribuzione 𝑃𝑠(𝑡)(𝑥) associata al

segnale 𝑠(𝑡, 𝜏). Per ogni 𝑥 < 0 la

𝑃𝑠(𝑡)(𝑥) è nulla poiché il segnale non

può assumere valori negativi, mentre

per valori di 𝑥 ≥ 1 la 𝑃𝑠(𝑡)(𝑥) vale 1

poiché i valori che il segnale può assu-

mere non possono essere superiori ad 1.

Per 0 ≤ 𝑥 < 1 si ha:

𝑃𝑠(𝑡)(𝑥) = 𝑃0(𝑡)u(𝑥)

In definitiva quindi risulta:

𝑃𝑠(𝑡)(𝑥) = 𝑃0(𝑡)u(𝑥) + 𝑃1(𝑡)u(𝑥 − 1)

Pertanto la corrispondente densità di probabilità vale:

𝑝𝑠(𝑡)(𝑥) =𝜕𝑃𝑠(𝑡)(𝑥)

𝜕𝑥= 𝑃0(𝑡)𝛿(𝑥) + 𝑃1(𝑡)𝛿(𝑥 − 1)

Fig.E 18.2

Fig.E 18.1

Page 318: Lezioni di TEORIA DEI SEGNALI.pdf

306 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Le funzioni 𝑝𝑠(𝑡)(𝑥) e 𝑃𝑠(𝑡)(𝑥) sono rappresentate nella Fig.E 18.2.

Se in particolare la variabile 𝜏 è uniformemente distribuita in

(-𝑇/2, 𝑇/2), cioè è caratterizzata da una densità di probabilità del primo

ordine data dalla:

𝑝𝜏(휂) =1

𝑇⊓ (

𝑇)

si ha:

𝑃1(𝑡) = ∫1

𝑇⊓ (

𝑇)𝑑휂

𝑡+𝑇

2

𝑡−𝑇

2

= {1 −|𝑡|

𝑇; |𝑡| ≤ 𝑇

0; |𝑡| > 𝑇= (1 −

|𝑡|

𝑇)⊓ (

𝑡

2𝑇)

di conseguenza:

𝑃0(𝑡) = 1 − (1 −|𝑡|

𝑇)⊓ (

𝑡

2𝑇)

Funzioni di probabilità del secondo ordine e fun-18.2 - zioni di probabilità condizionate.

Dati due reali qualsiasi 𝑥1, 𝑥2 si prenda in considerazione

l’evento:

E𝑥1𝑥2 = {𝑠(𝑡)|𝑠1 ≤ 𝑥1⋀ 𝑠2 ≤ 𝑥2} (18.2.1)

Dove, per comodità di no-

tazione, 𝑠1 ed 𝑠2 indicano i

valori assunti dalla generi-

ca manifestazione del se-

gnale agli istanti 𝑡1 e 𝑡2 ri-

spettivamente. E𝑥1𝑥2 rap-

presenta cioè l’evento co-

stituito da tutte le manife-

stazioni del segnale 𝑠(𝑡)

che assumono all'istante 𝑡1

un valore non maggiore di 𝑥1, e all'istante 𝑡2 un valore non maggiore

di 𝑥2.

Nell’esempio di Fig. 18.3soltanto la manifestazione 𝑠(𝑡, 휁1) è

contenuta in E𝑥1𝑥2.

La probabilità che si verifichi l’evento 𝐸𝑥1𝑥2dipende evidente-

mente sia dagli istanti di tempo considerati sia dalla coppia 𝑥1, 𝑥2; es-

sa si può pertanto esprimere nella forma:

Pr{E𝑥1𝑥2} = 𝑃𝑠1𝑠2(𝑥1, 𝑥2) (18.2.2)

Fig. 18.3 - Manifestazioni di un segnale aleato-rio.

Page 319: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 307

La funzione 𝑃𝑠1𝑠2(𝑥1, 𝑥2), appena introdotta, costituisce la di-

stribuzione di probabilità del secondo ordine associata al segnale aleatorio

𝑠(𝑡) relativa ai due istanti 𝑡1, 𝑡2 in cui il segnale aleatorio viene osser-

vato.

Anche in questo caso è possibile individuare una densità di pro-

babilità del secondo ordine associata al segnale:

𝑝𝑠1𝑠2(𝑥1, 𝑥2) =𝜕2𝑃𝑠1𝑠2(𝑥1, 𝑥2)

𝜕𝑥1𝜕𝑥2 (18.2.3)

nella quale la derivazione è da intendersi in senso generalizzato.

La 𝑃𝑠1𝑠2(𝑥1, 𝑥2) deve necessariamente soddisfare le uguaglian-

ze:

{

𝑃𝑠1𝑠2(∞,∞) = 1;

𝑃𝑠1𝑠2(−∞,−∞) = 0;

𝑃𝑠1𝑠2(0, −∞) = 0;

𝑃𝑠1𝑠2(−∞, 0) = 0;

(18.2.4)

la prima delle quali esprime la probabilità associata all’evento certo;

le restanti quelle d’eventi impossibili, indipendentemente dagli istanti

d’osservazione considerati.

Dalla (18.2.3)si deduce inoltre che la probabilità che all'istante

𝑡1 il valore 𝑠(𝑡1) = 𝑠1, assunto dalla generica manifestazione del se-

gnale, sia compreso nell'intervallo (𝑎1, 𝑏1] e che a 𝑡2 il valore

𝑠(𝑡2) = 𝑠2, assunto dalla stessa manifestazione, appartenga all'inter-

vallo (𝑎2, 𝑏2] si può calcolare in uno dei seguenti modi:

Pr{{𝑠(𝑡)|(𝑠1, 𝑠2) ∈ (𝑎1, 𝑏1] × (𝑎2, 𝑏2]}}= 𝑃𝑠1𝑠2(𝑎2, 𝑏2) − 𝑃𝑠1𝑠2(𝑎1, 𝑏2) − 𝑃𝑠1𝑠2(𝑎2, 𝑏1)

+ 𝑃𝑠1𝑠2(𝑎1, 𝑏1) = ∫ ∫ 𝑝𝑠1𝑠2(𝑥, 𝑦)𝑑𝑥𝑑𝑦𝑏2

𝑎2

𝑏1

𝑎1

(18.2.5)

È inoltre evidente che si ha:

𝑃𝑠1𝑠2(𝑥1, 𝑥2) = ∫ ∫ 𝑝𝑠1𝑠2(𝑥, 𝑦)𝑑𝑥𝑑𝑦𝑥2

−∞

𝑥1

−∞

(18.2.6)

Dato che l'evento E𝑥1𝑥2 è contenuto nell'evento

E𝑥1+|𝛥𝑥1|,𝑥2+|𝛥𝑥2| deve necessariamente essere 𝑃𝑠1𝑠2(𝑥1, 𝑥2) ≤

𝑃𝑠1𝑠2(𝑥1 + |𝛥𝑥1|, 𝑥2 + |𝛥𝑥2|), il che comporta:

𝑝𝑠1𝑠2(𝑥1, 𝑥2) ≥ 0 (18.2.7)

Page 320: Lezioni di TEORIA DEI SEGNALI.pdf

308 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

in tutti i punti in cui la derivazione (18.2.3) si può effettuare in senso

ordinario, inoltre, i pesi delle delta di Dirac, eventualmente presenti

nella 𝑝𝑠1𝑠2(𝑥1, 𝑥2), non possono essere negativi.

Si osservi che tutti I risultati ottenuti si potevano dedurre os-

servando che 𝑠(𝑡1) ed 𝑠(𝑡2) sono due variabili aleatorie definite su di

uno stesso esperimento casuale, di cui la 𝑝𝑠1𝑠2(𝑥1, 𝑥2) e la 𝑃𝑠1𝑠2(𝑥1, 𝑥2)

costituiscono le funzioni di probabilità congiunte.

Si considerino gli eventi:

E2 = {𝑠(𝑡)|𝑠2 ≤ 𝑥2}; E1 = {𝑠(𝑡)|𝑥1 −|𝛥𝑥1|

2< 𝑠1

≤ 𝑥1 +|𝛥𝑥1|

2}

(18.2.8)

La probabilità dell'evento E2 condizionata dal manifestarsi dell'even-

to E1, nell’ipotesi che quest'ultimo abbia probabilità diversa da zero,

per la formula di Bayes vale:

Pr{E2|E1} =Pr{E2 ∩ E1}

Pr{E1}=

∫ ∫ 𝑝𝑠1𝑠2(𝑥, 𝑦)𝑑𝑥𝑑𝑦𝑥2

−∞

𝑥1+|𝛥𝑥1|

2

𝑥1−|𝛥𝑥1|

2

∫ 𝑝𝑠1(𝑥)𝑑𝑥𝑥1+

|𝛥𝑥1|

2

𝑥1−|𝛥𝑥1|

2

(18.2.9)

Se si fa tendere 𝛥𝑥1 a zero, ammesso che la 𝑝𝑠1(𝑥1), sia conti-

nua in 𝑥1, E1 si riduce all'evento singolare E1 = {𝑠(𝑡)|𝑠1 = 𝑥1} e si ha:

lim𝛥𝑥1→0

Pr{E2|E1} = lim𝛥𝑥1→0

∫ ∫ 𝑝𝑠1𝑠2(𝑥, 𝑦)𝑑𝑥𝑑𝑦𝑥2

−∞

𝑥1+|𝛥𝑥1|

2

𝑥1−|𝛥𝑥1|

2

∫ 𝑝𝑠1(𝑥)𝑑𝑥𝑥1+

|𝛥𝑥1|

2

𝑥1−|𝛥𝑥1|

2

=∫ 𝑝𝑠1𝑠2(𝑥1, 𝑦)𝑑𝑦𝑥2

−∞

𝑝𝑠1(𝑥1)

(18.2.10)

Si noti il limite (18.2.10) esiste finito se risulta 𝑝𝑠1(𝑥1) ≠ 0 e

definisce una funzione della variabile 𝑥1che soddisfa tutte le proprie-

tà di una distribuzione di probabilità. Tale funzione, che si denota

con 𝑃𝑠2|𝑠1(𝑥2, 𝑥1) e prende il nome di distribuzione di probabilità condi-

zionata. Alla 𝑃𝑠2|𝑠1(𝑥2, 𝑥1) corrisponde la densità di probabilità condiziona-

ta data dalla:

Page 321: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 309

𝑝𝑠2|𝑠1(𝑥2, 𝑥1) =𝜕𝑃𝑠2|𝑠1(𝑥2, 𝑥1)

𝜕𝑥2 (18.2.11)

È facile rendersi conto che tale densità di probabilità può

esprimersi in termini delle densità del primo e del secondo ordine as-

sociate al segnale 𝑠(𝑡) come segue:

𝑝𝑠1𝑠2(𝑥1, 𝑥2) = 𝑝𝑠1(𝑥1) ⋅ 𝑝𝑠2|𝑠1(𝑥2, 𝑥1) (18.2.12)

In modo analogo, introducendo la densità di probabilità con-

dizionata 𝑝𝑠1|𝑠2(𝑥1, 𝑥2) si deduce:

𝑝𝑠1𝑠2(𝑥1𝑥2) = 𝑝𝑠2(𝑥2) ⋅ 𝑝𝑠1|𝑠2(𝑥1, 𝑥2) (18.2.13)

Si noti infine che risulta:

lim𝑡2→𝑡1

𝑝𝑠2|𝑠1(𝑥2, 𝑥1) = lim𝑡1→𝑡2

𝑝𝑠1|𝑠2(𝑥1, 𝑥2) = 𝛿(𝑥1 − 𝑥2) (18.2.14)

che discende immediatamente dal fatto che una stessa manifestazio-

ne del segnale non può assumere due valori distinti nello stesso istan-

te .

Inoltre tenuto conto delle condizioni di normalizzazione:

∫ 𝑝𝑠1|𝑠2(𝑥1, 𝑥2)𝑑𝑥1

−∞

= ∫ 𝑝𝑠2|𝑠1(𝑥2, 𝑥1)𝑑𝑥2

−∞

= 1 (18.2.15)

dalle (18.2.12) e (18.2.13) si deduce che le densità del primo ordine

del segnale valgono rispettivamente:

a) 𝑝𝑠1(𝑥1) = ∫ 𝑝𝑠1𝑠2(𝑥1, 𝑥2)𝑑𝑥2

−∞

(18.2.16)

b) 𝑝𝑠2(𝑥2) = ∫ 𝑝𝑠1𝑠2(𝑥1, 𝑥2)𝑑𝑥1

−∞

dalle quali si evince che la densità di probabilità del primo ordine di

un segnale aleatorio è direttamente deducibile da quella del secondo

ordine per marginalizzazione.

È inoltre evidente che:

a) 𝑃𝑠1(𝑥1) = lim

𝑥2→∞𝑃𝑠1𝑠2(𝑥1, 𝑥2)

(18.2.17)

b) 𝑃𝑠2(𝑥2) = lim

𝑥1→∞𝑃𝑠1𝑠2(𝑥1, 𝑥2)

Page 322: Lezioni di TEORIA DEI SEGNALI.pdf

310 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Funzioni di probabilità d’ordine superiore. 18.3 -

In maniera analoga a quanto fatto nei paragrafi precedenti, si

può denotare con

𝑃𝑠1𝑠2…𝑠𝑛(𝑥1, 𝑥2, … 𝑥𝑛) (18.3.1)

la probabilità dell’evento

E𝑥1𝑥2…𝑥𝑛 = {𝑠(𝑡)|𝑠1 ≤ 𝑥1, 𝑠2 ≤ 𝑥2, … , 𝑠𝑛 ≤ 𝑥𝑛} (18.3.2)

costituito cioè da tutte le manifestazioni del segnale 𝑠(𝑡) che, in cor-

rispondenza agli istanti di tempo 𝑡1, 𝑡2, … , 𝑡𝑛, assumono valori rispet-

tivamente non superiori a 𝑥1, 𝑥2, … 𝑥𝑛.

La 𝑃𝑠1𝑠2…𝑠𝑛(𝑥1, 𝑥2, … 𝑥𝑛) costituisce la distribuzione di probabilità

di ordine 𝑛 associata al segnale. Ad essa corrisponde la relativa densità

di probabilità di ordine 𝑛: 𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, 𝑥2, … , 𝑥𝑛):

𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, 𝑥2, … , 𝑥𝑛) =𝜕𝑛𝑃𝑠1𝑠2…𝑠𝑛(𝑥1, 𝑥2, … 𝑥𝑛)

𝜕𝑥1𝜕𝑥2…𝜕𝑥𝑛 (18.3.3)

in cui la derivata, anche in questo caso, è intesa in senso generalizza-

to.

Dalla 𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, 𝑥2, … , 𝑥𝑛) si possono dedurre tutte le densità

d’ordine inferiore per successiva marginalizzazione. Si ha infatti, ge-

neralizzando le (18.2.16):

𝑝𝑠1𝑠2…𝑠𝑛−1(𝑥1, … , 𝑥𝑛−1) = ∫ 𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, … , 𝑥𝑛)𝑑𝑥𝑛

−∞

𝑝𝑠1𝑠2…𝑠𝑛−2(𝑥1, … , 𝑥𝑛−2) = ∫ ∫ 𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, … , 𝑥𝑛)𝑑𝑥𝑛𝑑𝑥𝑛−1

−∞

−∞. . . . . . . . . . . . . . . . . .

𝑝𝑠1(𝑥1) = ∫ …∫ 𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, … , 𝑥𝑛)𝑑𝑥𝑛𝑑𝑥𝑛−1

−∞

−∞

…𝑑𝑥2

(18.3.4)

La densità di probabilità d’ordine 𝑛 deve inoltre soddisfare la

seguente condizione di normalizzazione:

∫ …∫ 𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, … , 𝑥𝑛)𝑑𝑥𝑛𝑑𝑥𝑛−1

−∞

−∞

…𝑑𝑥2𝑑𝑥1 = 1 (18.3.5)

che esprime la circostanza che i valori assunti dal segnale negli istanti

𝑡1, 𝑡2, … , 𝑡𝑛 sono certamente limitati.

Si ha:

Page 323: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 311

𝑃𝑠1𝑠2…𝑠𝑛(𝑥1, … , 𝑥𝑛)

= ∫ …∫ 𝑝𝑠1𝑠2…𝑠𝑛(𝑦1, … , 𝑦𝑛)𝑑𝑦1…𝑑𝑦𝑛

𝑥𝑛

−∞

𝑥1

−∞

(18.3.6)

e sono soddisfatte le uguaglianze:

𝑃𝑠1𝑠2…𝑠𝑛(−∞,… ,−∞) = 0, 𝑃𝑠1𝑠2…𝑠𝑛(∞,… ,∞) = 1 (18.3.7)

Da considerazioni analoghe a quelle fatte per dedurre la

(18.2.7) discende:

𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, 𝑥2, … , 𝑥𝑛) ≥ 0 (18.3.8)

in tutti i punti in cui 𝑃𝑠1𝑠2…𝑠𝑛(𝑥1, … , 𝑥𝑛) è derivabile in senso ordina-

rio; inoltre i pesi delle eventuali delta di Dirac nella

𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, 𝑥2… , 𝑥𝑛) non possono essere negativi.

Quando sono note le funzioni di probabilità fino a all’ordine 𝑛

di un segnale aleatorio, si dice che esso è statisticamente noto fino

all'ordine 𝑛. È evidente che quanto più 𝑛 è elevato tanto maggiori

sono le informazioni che si hanno sulla natura del segnale.

Se i valori assunti dalla generica manifestazione del segnale ne-

gli istanti 𝑡1, 𝑡2, … , 𝑡𝑛 sono statisticamente indipendenti cioè se risulta,

qualunque sia l'ordine 𝑛 e comunque scelti gli istanti 𝑡1, 𝑡2, … , 𝑡𝑛:

𝑝𝑠1𝑠2…𝑠𝑛(𝑥1, 𝑥2, … , 𝑥𝑛) = 𝑝𝑠1(𝑥1)𝑝𝑠2(𝑥2) …𝑝𝑠𝑛(𝑥𝑛) (18.3.9)

il segnale si dice puramente casuale. In tal caso la densità di probabilità

del primo ordine contiene già tutte le informazioni necessarie alla de-

scrizione statistica del segnale.

La funzione di distribuzione di probabilità d’ordine 𝑛 per un

tale segnale risulta:

𝑃𝑠1…𝑠𝑛(𝑥1, … , 𝑥𝑛)

= ∫ 𝑝𝑠1(𝑥)𝑑𝑥𝑥1

−∞

∫ 𝑝𝑠2(𝑥)𝑑𝑥𝑥2

−∞

…∫ 𝑝𝑠𝑛(𝑥)𝑑𝑥𝑥𝑛

−∞

=∏𝑃𝑠𝑖(𝑥𝑖)

𝑛

𝑖=1

(18.3.10)

essa, cioè, come la corrispondente densità di probabilità, si può espri-

mere come prodotto di 𝑛 distribuzioni di probabilità del primo ordi-

ne rispettivamente valutate in corrispondenza degli 𝑛 istanti di os-

servazione.

Page 324: Lezioni di TEORIA DEI SEGNALI.pdf

312 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Segnali aleatori deterministici. 18.4 -

Una classe particolare di segnali aleatori è costituita dai cosid-

detti segnali deterministici. Per essi l'evoluzione della generica manifesta-

zione per valori di 𝑡 ≥ 𝜏 può essere dedotta dalla conoscenza del se-

gnale per 𝑡 < 𝜏.

Il segnale 𝑠(𝑡, 𝜑) = cos(2𝜋𝑓0𝑡 + 𝜑) ne è un esempio, dal mo-

mento che nota la frequenza 𝑓0 l'osservazione del segnale in almeno

due istanti distinti consente di determinare il valore della fase 𝜑 e

quindi la manifestazione.

In generale un segnale aleatorio deterministico è rappresenta-

bile mediante una funzione 𝑠(𝑡, 𝒁) in cui 𝒁 = [𝑍1, 𝑍2, … , 𝑍𝑛] è un 𝑛-

vettore di variabili aleatorie definite su uno stesso esperimento casua-

le caratterizzato da una distribuzione di probabilità congiunta

𝑃𝒁(𝑧1, 𝑧2, … , 𝑧𝑛).

Segnali dipendenti da una variabile aleatoria mo-18.5 - nodimensionale

funzioni di probabilità del primo ordine.

Sia 𝑠 = 𝑠(𝑡, 𝑍) un segnale dipendente da una variabile aleatoria

monodimensionale 𝑍. Si vuole determinare la distribuzione di pro-

babilità del primo ordine ad esso associata, nota che sia la densità di

probabilità di 𝑍.

A tal fine si ricorda che la 𝑃𝑠(��)(𝑥) eguaglia la probabilità che il

segnale all’istante �� assuma un valore non superiore ad 𝑥. Tale even-

tualità si verifica tutte e sole le volte che la variabile aleatoria 𝑍 assu-

me valori appartenenti all’insieme I��,𝑥 = 𝑠−1(��, (−∞, 𝑥]) ⊆ ℝ In altri

termini 𝑃𝑠(��)(𝑥) = Pr{I��,𝑥}, nell’ipotesi in cui I��,𝑥 costituisca un even-

to per 𝑍.

Quest’ultima ipotesi è certamente soddisfatta, in quanto il se-

gnale, in virtù della sua definizione, individua in ogni istante una va-

riabile aleatoria sullo spazio dei risultati dell’esperimento casuale. Nel

caso in esame l’insieme dei risultati è ℝ, quindi 𝑠(��, 𝑍) è una funzione

misurabile di 𝑍. Ciò significa che l’insieme I��,𝑥 è di Borel, (misurabile

nel senso di Lebesgue) ad esso è quindi possibile attribuire una pro-

babilità nota che sia la densità di probabilità 𝑝𝑍(𝑧) della variabile

aleatoria 𝑍. In definitiva si può quindi scrivere:

Page 325: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 313

𝑃𝑠(��)(𝑥) = Pr{𝑠

−1(��, (−∞, 𝑥])} = ∫ 𝑝𝑍(𝑧)𝑑𝑧𝐼��,𝑥

(18.5.1)

È opportuno sottolineare che l’integrale che compare nella

precedente va inteso come una distribuzione qualora la 𝑝𝑍(𝑧) con-

tenga delle delta di Dirac.

Si consideri adesso il caso particolare in cui la variabile aleato-

ria 𝑠 = 𝑠(𝑡, 𝑍) sia di tipo continuo, la variabile aleatoria 𝑍 sia anche

essa di tipo continuo caratterizzata da una distribuzione di probabili-

tà 𝑃𝑍(𝑧) derivabile dappertutto. Si supponga inoltre che il segnale in

ogni istante sia rappresentabile mediante una funzione derivabile di 𝑍

che sia priva di tratti costanti.

Si osservi che l’equazione 𝑠 = 𝑠(𝑡, 𝑍) nel piano (𝑂, 𝑍, 𝑠) è rap-

presentabile mediante una famiglia di curve parametrizzate dal tem-

po.

Assegnato un istante �� si consideri la funzione di 𝑍, 𝑠 =

𝑠(��, 𝑍), (v. Fig. 18.4.

Si consideri quindi

sull’asse 𝑠 l’intervallo

I𝑥 = (𝑥 −𝛥𝑥

2, 𝑥 +

𝛥𝑥

2];

ad esso corrisponde

un'immagine inversa

𝑠−1(��, I𝑥), che si sup-

pone costituita da

un’unione finita o al

più numerabile di intervalli a due a due disgiunti I𝑍𝑗, cui appartengo-

no rispettivamente le soluzioni 𝑍𝑗 dell’equazione 𝑥 = 𝑠(��, 𝑍) (v. Fig.

18.4 sia cioè:

𝑠−1(��, I𝑥) = ∪ I𝑍𝑗∞

𝑗=1

(18.5.2)

La probabilità che nell'istante �� il segnale assuma un valore

appartenente all'intervallo I𝑥, è uguale alla probabilità che la variabile

aleatoria Z assuma un valore appartenente all'evento E = ∪ I𝑍𝑗∞𝑗=1 . Si

può quindi scrivere:

Pr{𝐼𝑥} = Pr{E} =∑Pr{I𝑍𝑗}

𝑗=1

(18.5.3)

Fig. 18.4 - rappresentazione sul piano . (O, Z, s)

Page 326: Lezioni di TEORIA DEI SEGNALI.pdf

314 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

dal momento che gli eventi che costituiscono E sono a due a due di-

sgiunti. Si osservi inoltre che per le ipotesi fatte sul segnale, al tende-

re a zero della misura |𝛥𝑥| di 𝐼𝑥 anche la misura |𝛥𝑍𝑗| del generico 𝐼𝑍𝑗

tende a zero; la (18.5.3) quindi, a meno d’infinitesimi di ordine supe-

riore al primo, si può riscrivere nella forma:

𝑝𝑠(��)(𝑥)|𝛥𝑥| =∑ 𝑝𝑍(𝑍𝑗)|𝛥𝑍𝑗|∞

𝑗=1

(18.5.4)

dalla quale si può concludere che:

𝑝𝑠(��)(𝑥) = 0 se: ∀��|𝑥 = 𝑠(��, ��) ⇒ 𝑝𝑍(��) = 0 (18.5.5)

Inoltre, per tutti i valori di 𝑥 in corrispondenza ai quali risulta

|𝜕𝑠(𝑡,𝑍)

𝜕𝑍|��,𝑍𝑗 ≠ 0∀𝑍𝑗, dividendo ambo i membri della (18.5.4) per |𝛥𝑥|

e passando al limite per 𝛥𝑥 → 0, si ottiene:

𝑝𝑠(��)(𝑥) = lim

𝛥𝑥→0∑

𝑝𝑍(𝑍𝑗)|𝛥𝑥|

|𝛥𝑍𝑗|

𝑗=1

=∑𝑝𝑍(𝑍𝑗)

|𝜕𝑠(𝑡,𝑍)

𝜕𝑍|��,𝑍𝑗

𝑗=1

(18.5.6)

In corrispondenza agli eventuali valori di 𝑥 per i quali risulta che

|𝜕𝑠(𝑡,𝑍)

𝜕𝑍|��,𝑍𝑗

= 0 la 𝑝𝑠(��)(𝑥) non è definita; tuttavia la 𝑝𝑠(��)(𝑥) risulta de-

finita quasi ovunque dalle (18.5.5) e (18.5.6), in quanto tali punti co-

stituiscono, per le ipotesi fatte, un insieme al più numerabile.

Si faccia ora riferimento al caso in cui il segnale 𝑠 = 𝑠(𝑡, 𝑍) sia

rappresentato da una funzione co-

stante a tratti della variabile aleato-

ria continua 𝑍; cioè il segnale, fatta

eccezione al più per un insieme di

manifestazioni che si presentano

con probabilità nulla, può assume-

re soltanto valori appartenenti ad

un sottoinsieme di A ⊂ ℝ al più

numerabile, com’è indicato in Fig.

18.5.

Ci si convince facilmente che la 𝑝𝑠(𝑡)(𝑥) in questo caso è di ti-

po discreto. Infatti, facendo riferimento alla Fig. 18.5, la probabilità

che il segnale assuma il valore 𝑥𝑖 è data da:

Fig. 18.5 - rappresentazione sul piano

, costante a tratti. (O, Z, s)

Page 327: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 315

𝑃𝑖 = Pr{𝑠(𝑡, 𝑍) = 𝑥𝑖} = ∫𝑝𝑍(𝑧)𝑑𝑧

𝐼𝑖

(18.5.7)

dove l’integrale è esteso a I𝑖 = 𝑠−1(��, {𝑥𝑖}), cioè alla controimmagine

dell’insieme {𝑥𝑖}, che il segnale individua nel generico istante di tem-

po nell’insieme dei valori assunti dalla variabile aleatoria 𝑍 cui esso è

associato.

La funzione distribuzione di probabilità del primo ordine

𝑃𝑠(𝑡)(𝑥) associata al segnale presenta, in corrispondenza al generico

𝑥𝑖, un salto di valore 𝑃𝑖(𝑡). Il valore da essa assunto è dato da

∑ 𝑃𝑗(𝑡)𝑖

𝑗=−∞ e 𝑃𝑠(𝑡)(𝑥) mantiene tale valore fino ad 𝑥𝑖+1. La 𝑃𝑠(𝑡)(𝑥)

si presenta quindi in ogni istante fissato come una funzione a scala.

La densità di probabilità 𝑝𝑠(𝑡)(𝑥) è conseguentemente espressa

dalla:

𝑝𝑠(𝑡)(𝑥) = ∑ 𝑃𝑖(𝑡)𝛿(𝑥 − 𝑥𝑖)

𝑖=−∞

(18.5.8)

Esempio 18.2

Si consideri il segnale

𝑠(𝑡, 𝜑) = cos(2𝜋𝑓0𝑡 + 𝜑)

dove 𝜑 denota una variabile

casuale caratterizzata da una

densità di probabilità del primo

ordine data da 𝑝𝜑(휃).

Se |𝑥| < 1 l'equazione

𝑥 = cos(2𝜋𝑓0𝑡 + 𝜑)

presenta soluzioni generate dalle (v. Fig.E 18.3)

2𝜋𝑓0𝑡 + 𝜑𝑘 = arccos𝑥 + 2𝑘𝜋

2𝜋𝑓0𝑡 + 𝜑′𝑘= −arccos𝑥 + 2𝑘𝜋

Poiché è:

𝜕𝑠

𝜕𝜑= −sin(2𝜋𝑓0𝑡 + 𝜑)

risulta:

|𝜕𝑠

𝜕𝜑|𝜑𝑘

= |sin(2𝜋𝑓0𝑡 + 𝜑𝑘)| = √1 − cos2(2𝜋𝑓0𝑡 + 𝜑𝑘)

|𝜕𝑠

𝜕𝜑|𝜑′𝑘

= |sin(2𝜋𝑓0𝑡 + 𝜑′𝑘)| = √1 − cos2(2𝜋𝑓0𝑡 + 𝜑

′𝑘)}

= √1 − 𝑥2

Fig.E 18.3

Fig. E.IV.3

Page 328: Lezioni di TEORIA DEI SEGNALI.pdf

316 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Quindi:

𝑝𝑠(𝑡)(𝑥) =1

√1 − 𝑥2∑[𝑝𝜑(𝜑𝑘) + 𝑝𝜑(𝜑

′𝑘)]

𝑘

Se 𝜑 è uniformemente distribuita in [0, 2𝜋], qualunque sia l'istante 𝑡,

la sommatoria che compare nella precedente, contiene due soli termini

non nulli ottenuti in corrispondenza ai valori di 𝑘 dati dalla:

𝑘 = ⌈𝑓0𝑡 ±arccos𝑥

2𝜋⌉

In definitiva risulta:

𝑝𝑠(𝑡)(𝑥) =1

𝜋√1 − 𝑥2⊓ (

𝑥

2)

il cui andamento in funzione di 𝑥 è riportato in Fig.E 18.4a).

La distribuzione di

probabilità si ottiene per

integrazione della prece-

dente. Si ha:

𝑃𝑠(𝑡)(𝑥)

= (1

2+arcsin𝑥

𝜋)⊓ (

𝑥

2)

+ u(𝑥 − 1)

ed è rappresentata nella Fig.E 18.4 b).

funzioni di probabilità d’ordine superiore al primo.

Sia 𝑠(𝑡, 𝑍) un segnale aleatorio rappresentato da una funzione

che, rispetto alla variabile aleatoria continua 𝑍, sia derivabile e non

presenti tratti costanti.

Posto I1 = (𝑥1 −𝛥𝑠1

2, 𝑥1 +

𝛥𝑠1

2), I2 = (𝑥2 −

𝛥𝑠2

2, 𝑥2 +

𝛥𝑠2

2) la

probabilità che si verifichi l'evento:

E = {𝑠(𝑡, 𝑍)|𝑠2 = 𝑠(𝑡2, 𝑍) ∈ I2 ∧ 𝑠1 = 𝑠(𝑡1, 𝑍) ∈ I1} (18.5.9)

a meno di infinitesimi d’ordine superiore , vale:

Pr{E} = 𝑝𝑠2𝑠1(𝑥2, 𝑥1)𝛥𝑠2𝛥𝑠1 (18.5.10)

Quest’ultima può essere espressa in termini della variabile aleatoria 𝑍

osservando che all'istante 𝑡1 esiste un numero finito, o al più un’infi-

nità numerabile, di intervalli elementari a due a due disgiunti tali che

risulti:

Fig.E 18.4

Page 329: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 317

∪ J1𝑗∞𝑗=1 = 𝑠−1(𝑡1, I1) (18.5.11)

Ciascuno di questi intervalli, a meno d’infinitesimi d’ordine superio-

re, se risulta |𝜕𝑠(𝑡1,𝑍)

𝜕𝑍|𝑍=𝑍𝑗

≠ 0 è dato da:

J1𝑗 = (𝑍𝑗 −𝛥𝑠1

2 |𝜕𝑠(𝑡1,𝑍)

𝜕𝑍|𝑍=𝑍𝑗

, 𝑍𝑗 +𝛥𝑠1

2 |𝜕𝑠(𝑡1,𝑍)

𝜕𝑍|𝑍=𝑍𝑗

) (18.5.12)

dove 𝑍𝑗 rappresenta la generica soluzione dell’equazione 𝑥1 =

𝑠(𝑡1, 𝑍).

La probabilità che la variabile aleatoria 𝑍 appartenga ad uno di

questi intervalli vale a sua volta:

Pr{{𝑍 ∈ J1𝑗}} = 𝑝𝑍(𝑍𝑗)

𝛥𝑠1

|𝜕𝑠(𝑡1,𝑍)

𝜕𝑍|𝑍=𝑍𝑗

(18.5.13)

dove la 𝑝𝑍(⋅) indica la densità di probabilità di 𝑍.

Si constata che:

Pr{E} = 𝑝𝑠1𝑠2(𝑥2, 𝑥1)𝛥𝑠1𝛥𝑠2

=∑𝑝𝑍𝑠2(𝑍𝑗, 𝑥2)𝛥𝑠1

|𝜕𝑠(𝑡1,𝑍)

𝜕𝑍|𝑍=𝑍𝑗

𝛥𝑠2

𝑗=1

(18.5.14)

Ma se 𝑍 = 𝑍𝑗 il segnale all’istante 𝑡2 assumerà con certezza il valore

𝑠(𝑡2, 𝑍𝑗). Pertanto si può scrivere:

𝑝𝑍𝑠2(𝑍𝑗 , 𝑥2) = 𝛿(𝑥2 − 𝑠(𝑡2, 𝑍𝑗))𝑝𝑍(𝑍𝑗) (18.5.15)

che, sostituita nella (18.5.14), consente di scrivere la densità di proba-

bilità del secondo ordine di un segnale deterministico associato ad

una variabile aleatoria monodimensionale:

𝑝𝑠1𝑠2(𝑥1, 𝑥2) = ∑

𝛿(𝑥2 − 𝑠(𝑡2, 𝑍𝑗))𝑝𝑍(𝑍𝑗)

|𝜕𝑠(𝑡1,𝑍)

𝜕𝑍|𝑍=𝑍𝑗

𝑗=1

(18.5.16)

Le densità di probabilità di ordine più elevato possono rica-

varsi con procedimento analogo.

Page 330: Lezioni di TEORIA DEI SEGNALI.pdf

318 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Esempio 18.3

La densità di probabilità del secondo ordine per il segnale dell’e-

sempio precedente per |x 1 |<1 ed |x 2 |<1 può essere scritta nella forma:

𝑝𝑠1𝑠2(𝑥1, 𝑥2)

= ∑ [𝑝𝜑(𝜑𝑘)

|𝜕𝑠(𝑡1,𝜑)

𝜕𝜑|𝜑=𝜑𝑘

𝛿(𝑥2 − 𝑠(𝑡2, 𝜑𝑘)) +𝑝𝜑(��𝑘)

|𝜕𝑠(𝑡1,𝜑)

𝜕𝜑|𝜑=��𝑘

𝛿(𝑥2 − 𝑠(𝑡2, ��𝑘))]

𝑘=−∞

dove è

𝑠(𝑡2, 𝜑𝑘) = cos(2𝜋𝑓0𝑡2 +𝜑𝑘) = cos(2𝜋𝑓0(𝑡2 − 𝑡1) + arccos(𝑥1))

𝑠(𝑡2, ��𝑘) = cos(2𝜋𝑓0𝑡2 + ��𝑘) = cos(2𝜋𝑓0(𝑡2 − 𝑡1) − arccos(𝑥1))

e

𝜑𝑘 = arccos(𝑥1) − 2𝜋𝑓0𝑡1 + 2𝑘𝜋

��𝑘 = −arccos(𝑥1) − 2𝜋𝑓0𝑡1 + 2𝑘𝜋

i valori della fase che soddisfano la condizione:

𝑥1 = cos(2𝜋𝑓0𝑡1 + 𝜑)

conseguentemente, per |𝑥1| ≤ 1 ed |𝑥2| ≤ 1, si ha:

𝑝𝑠1,𝑠2(𝑥1, 𝑥2) =1

2𝜋√1 − 𝑥12{𝛿[𝑥2 − cos(2𝜋𝑓0(𝑡2 − 𝑡1) − arccos(𝑥1))] +

+𝛿[𝑥2 − cos(2𝜋𝑓0(𝑡2 − 𝑡1) + arccos(𝑥1))]}

mentre evidentemente per |𝑥1| > 1 o per |𝑥2| > 1 risulta:

𝑝𝑠1,𝑠2(𝑥1, 𝑥2) = 0

Segnali dipendenti da un vettore aleatorio. 18.6 -

Si consideri per semplicità il caso di un segnale deterministico

𝑠(𝑡, 𝒁) in cui 𝒁 è un vettore aleatorio continuo bidimensionale; inoltre

il segnale sia una funzione continua e priva di tratti costanti delle

componenti di 𝒁, parzialmente derivabile ovunque.

Posto 𝐼1 = (𝑥1 −𝛥𝑠1

2, 𝑥1 +

𝛥𝑠1

2), 𝐼2 = (𝑥2 −

𝛥𝑠2

2, 𝑥2 +

𝛥𝑠2

2), la

probabilità che si verifichi l'evento:

𝐸 = {𝑠(𝑡, 𝒁)|𝑠2 ∈ 𝐼2 ∧ 𝑠1 ∈ 𝐼1} (18.6.1)

è a meno di infinitesimi di ordine superiore è data da:

Pr{E} = 𝑝𝑠1𝑠2(𝑥1, 𝑥2)𝛥𝑠1𝛥𝑠2= Pr{𝒁 ∈ A=𝑠−1(𝑡1, I1) ∩ 𝑠

−1(𝑡2, I2)} (18.6.2)

Page 331: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 319

L'insieme A è evidentemente costituito, per le ipotesi fatte sul segna-

le, da una unione al piu numerabile di sottoinsiemi A𝑖 in ℝ2 a due a

due disgiunti. La (18.6.2) si può quindi scrivere:

𝑝𝑠1𝑠2(𝑥1, 𝑥2)𝛥𝑠1𝛥𝑠2 =∑𝑝𝑍(𝑧1𝑖 , 𝑧2𝑖)𝛥𝑠1𝛥𝑠2|𝐽|𝑧=𝑧𝑖

𝑖=1

(18.6.3)

dove la coppia𝑧1𝑖 , 𝑧2𝑖rappresenta l’𝑖-esima soluzione del sistema:

{𝑥1 = 𝑠(𝑡1, 𝑧1, 𝑧2);

𝑥2 = 𝑠(𝑡2, 𝑧1, 𝑧2);

(18.6.4)

e |𝐽| il modulo del determinante Jacobiano

𝐽 =𝜕(𝑠1, 𝑠2)

𝜕(𝑧1, 𝑧2)= ||

𝜕𝑠(𝑡1, 𝑧1, 𝑧2)

𝜕𝑧1

𝜕𝑠(𝑡1, 𝑧1, 𝑧2)

𝜕𝑧2𝜕𝑠(𝑡2, 𝑧1, 𝑧2)

𝜕𝑧1

𝜕𝑠(𝑡2, 𝑧1, 𝑧2)

𝜕𝑧2

|| (18.6.5)

Si osservi che per valutare le densità di probabilità del primo

ordine basta marginalizzare le (18.6.3)rispetto ad una delle due varia-

bili 𝑥1, 𝑥2.

In modo analogo si determinano le densità di probabilità nel

caso in cui il segnale dipenda da un vettore aleatorio 𝑛-dimensionale.

In tal caso si procede alla determinazione della densità di probabilità

d’ordine 𝑛 e per successive marginalizzazioni si possono via via otte-

nere le densità di probabilità d’ordine inferiore.

Esempio 18.4

Sia

𝑠(𝑡, 𝑉, 𝜑) = 𝑉cos(2𝜋𝑓0𝑡 + 𝜑)

un segnale aleatorio dipendente da due variabili aleatorie V, che si sup-

pongono statisticamente indipendenti e caratterizzate da densità di pro-

babilità del primo ordine che valgono:

𝑝𝑉(𝑣) =𝑣

𝜎2𝑒−

𝑉2

2𝜎2u(𝑣); 𝑝𝜑(𝜗) =1

2𝜋⊓ (

𝜗 − 𝜋

2𝜋)

Il sistema (IV.2.20) in tal caso diventa:

{𝑥1 = 𝑣cos(2𝜋𝑓0𝑡1 + 𝜗);

𝑥2 = 𝑣cos(2𝜋𝑓0𝑡2 + 𝜗);

La prima delle (a) fornisce

𝜗1 = arccos𝑥1𝑣− 2𝜋𝑓0𝑡1��1 = −arccos

𝑥1𝑣− 2𝜋𝑓0𝑡1

Page 332: Lezioni di TEORIA DEI SEGNALI.pdf

320 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

pertanto risulta:

cos𝜗1 = cos (arccos𝑥1𝑣− 2𝜋𝑓0𝑡1)

= cos (arccos𝑥1𝑣) cos2𝜋𝑓0𝑡1 + sin (arccos

𝑥1𝑣) sin2πf0t1

=𝑥1𝑣cos2𝜋𝑓0𝑡1 +√1 −

𝑥12

𝑣2sin2πf0t1

sin𝜗1 = sin (arccos𝑥1𝑣− 2𝜋𝑓0𝑡1)

= sin (arccos𝑥1𝑣) cos2𝜋𝑓0𝑡1 − cos (arccos

𝑥1𝑣) sin(2𝜋𝑓0𝑡1)

= √1 −𝑥12

𝑣2cos2𝜋𝑓0𝑡1 −

𝑥1𝑣sin2𝜋𝑓0𝑡1

ed analogamente:

{

𝑐𝑜𝑠��1 =

𝑥1𝑣cos(2𝜋𝑓0𝑡1) − √1 −

𝑥12

𝑣2sin(2πf0t1);

sin��1 = −𝑥1𝑣cos(2𝜋𝑓0𝑡1) − √1 −

𝑥12

𝑣2sin(2πf0t1);

D'altra parte la seconda delle (a) può anche scriversi:

𝑥2 = 𝑣(cos(2𝜋𝑓0𝑡2)cos𝜗 − sin(2𝜋𝑓0𝑡2)sin𝜗)

sostituendo si ottiene:

𝑥2

= 𝑣(𝑥1𝑣cos(2𝜋𝑓0𝑡1)cos(2𝜋𝑓0𝑡2) + √1 −

𝑥12

𝑣2cos(2𝜋𝑓0𝑡1)sin(2𝜋𝑓0𝑡2)

− √1 −𝑥12

𝑣2sin(2πf0t1)cos(2𝜋𝑓0𝑡2) +

𝑥1𝑣sin(2πf0t1)sin(2𝜋𝑓0𝑡2))

= 𝑥1cos2𝜋𝑓0(𝑡2 − 𝑡1) − √𝑣2 − 𝑥1

2sin(2𝜋𝑓0(𝑡2 − 𝑡1))

che risolta rispetto a fornisce

𝑣 =√𝑥1

2 + 𝑥22 − 2𝑥1𝑥2cos(2𝜋𝑓0(𝑡2 − 𝑡1))

|sin(2𝜋𝑓0(𝑡2 − 𝑡1))|

supposto 2𝜋𝑓0(𝑡2 − 𝑡1) ≠ 𝑘.

Per la soluzione 1 analogamente si ottiene

Page 333: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 321

��2 = 𝑥1cos(2𝜋𝑓0(𝑡2 − 𝑡1)) + √𝑣2 − 𝑥1

2sin(2𝜋𝑓0(𝑡2 − 𝑡1))

che risolta rispetto a fornisce

�� =√𝑥1

2 + ��22 − 2𝑥1��2cos(2𝜋𝑓0(𝑡2 − 𝑡1))

|sin(2𝜋𝑓0(𝑡2 − 𝑡1))|= 𝑣

Lo Jacobiano della trasformazione vale

𝐽 = |cos(2𝜋𝑓0𝑡1 + 𝜗) −𝑣sin(2𝜋𝑓0𝑡1 + 𝜗)cos(2𝜋𝑓0𝑡2 + 𝜗) −𝑣sin(2𝜋𝑓0𝑡2 + 𝜗)

| = −𝑣sin(2𝜋𝑓0(𝑡2 − 𝑡1))

quindi la densità di probabilità del secondo ordine cercata è data da:

𝑝𝑠1𝑠2(𝑥1, 𝑥2) =𝑝𝑉(𝑣)

2𝜋𝑣|sin(2𝜋𝑓0(𝑡2 − 𝑡1))|+

𝑝𝑉(��)

2𝜋��|sin(2𝜋𝑓0(𝑡2 − 𝑡1))|

=𝑝𝑉(𝑣)

𝜋|sin(2𝜋𝑓0(𝑡2 − 𝑡1))|

che sostituendo alla variabile la sua espressione in termini di x1 ed x2

diventa:

𝑝𝑠1𝑠2(𝑥1, 𝑥2) =√𝑥1

2 + 𝑥22 − 2𝑥1𝑥2cos(2𝜋𝑓0(𝑡2 − 𝑡1))

𝜎2𝜋sin2(2𝜋𝑓0(𝑡2 − 𝑡1))𝑒−𝑥12+𝑥2

2−2𝑥1𝑥2cos(2𝜋𝑓0(𝑡2−𝑡1))

2𝜎2sin2(2𝜋𝑓0(𝑡2−𝑡1))

Segnali distinti. Funzioni di probabilità congiunte. 18.7 -

Siano 𝜉(𝑡) e 휂(𝑡) due segnali aleatori a tempo continuo, defi-

niti sullo stesso spazio di probabilità. Si prenda in considerazione l'e-

vento 𝐼𝑥𝑦 il cui generico elemento è una coppia di manifestazioni

(𝜉(𝑡), 휂(𝑡)) tale che 𝜉(𝑡) all'istante 𝑡1, assuma un valore appartenente

alla semiretta 𝐼𝑥 = (−∞, 𝑥] e che, all'istante 𝑡2, 휂(𝑡) assuma un valore

appartente a 𝐼𝑦 = (−∞, 𝑦].

Si osservi che la probabilità dell’evento 𝐼𝑥𝑦 , oltre che da 𝑥 e da

𝑦, dipende evidentemente anche dagli istanti 𝑡1 e 𝑡2 d’osservazione,

risulta:

Pr{𝐼𝑥𝑦} = 𝑃𝜉1𝜂2(𝑥, 𝑦) (18.7.1)

dove la funzione 𝑃𝜉1𝜂2(𝑥, 𝑦) rappresenta la distribuzione di probabilità

congiunta associata ai due segnali.

Naturalmente tale distribuzione di probabilità, indipendente-

mente dagli istanti di tempo considerati, soddisfa le condizioni:

a) 𝑃𝜉1𝜂2(∞,∞) = 1

(18.7.2) b) 𝑃𝜉1𝜂2(−∞,−∞) = 0

Page 334: Lezioni di TEORIA DEI SEGNALI.pdf

322 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

La corrispondente funzione di densità di probabilità congiunta

𝑝𝜉1𝜂2(𝑥, 𝑦) è la derivata mista, eventualmente intesa in senso genera-

lizzato, della 𝑃𝜉1𝜂2(𝑥, 𝑦) e soddisfa le condizioni:

∬ 𝑝𝜉1𝜂2(𝑥, 𝑦)𝑑𝑥𝑑𝑦ℝ2

= 1 (18.7.3)

𝑃𝜉1𝜂2(𝑥, 𝑦) = ∫ ∫ 𝑝𝜉1𝜂2(𝜆, 𝜇)𝑑𝜆𝑑𝜇𝑦

−∞

𝑥

−∞

(18.7.4)

Introducendo le densità di probabilità condizionate la funzio-

ne 𝑝𝜉1𝜂2(𝑥, 𝑦) può essere scritta come segue:

a) 𝑝𝜉1𝜂2(𝑥, 𝑦) = 𝑝𝜉1(𝑥) ⋅ 𝑝𝜂2|𝜉1(𝑦, 𝑥)

(18.7.5) b) 𝑝𝜉1𝜂2(𝑥, 𝑦) = 𝑝𝜂2(𝑦) ⋅ 𝑝𝜉1|𝜂2(𝑥, 𝑦)

dove 𝑝𝜉1(𝑥) e 𝑝𝜂2(𝑦) denotano le densità di probabilità del primo

ordine associate ai segnali 𝜉(𝑡) e 휂(𝑡), valutate negli istanti 𝑡1 e 𝑡2 ri-

spettivamente.

Essendo peraltro:

∫ 𝑝𝜉1|𝜂2(𝑥, 𝑦)𝑑𝑥∞

−∞

= ∫ 𝑝𝜂2|𝜉1(𝑦, 𝑥)𝑑𝑦∞

−∞

= 1 (18.7.6)

si ottiene per integrazione delle (18.7.5)

a) 𝑝𝜉1(𝑥) = ∫ 𝑝𝜉1𝜂2(𝑥, 𝑦)𝑑𝑦∞

−∞

(18.7.7)

b) 𝑝𝜂2(𝑦) = ∫ 𝑝𝜉1𝜂2(𝑥, 𝑦)𝑑𝑥∞

−∞

che consentono di determinare le densità di probabilità del primo

ordine associate ai segnali 𝜉(𝑡) e 휂(𝑡) nota che sia la loro densità di

probabilità congiunta.

Se risulta:

𝑝𝜉1𝜂2(𝑥, 𝑦) = 𝑝𝜉1(𝑥) ⋅ 𝑝𝜂2(𝑦) (18.7.8)

i segnali si dicono congiuntamente statisticamente indipendenti. Dal con-

fronto tra le (18.7.5) e la 0(18.7.8) discende che in questo caso:

a) 𝑝𝜉1|𝜂2(𝑥, 𝑦) = 𝑝𝜉1(𝑥)

(18.7.9) b) 𝑝𝜂2|𝜉1(𝑦, 𝑥) = 𝑝𝜂2(𝑦)

Page 335: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 323

cioè: la probabilità che una manifestazione del segnale 𝜉(𝑡) (휂(𝑡)) as-

suma all'istante 𝑡1 (𝑡2) un valore compreso nell'intervallo ]𝑥 −𝛥𝑥

2, 𝑥 +

𝛥𝑥

2] (]𝑦 −

𝛥𝑦

2, 𝑦 +

𝛥𝑦

2]) è indipendente dal valore assunto dal sgnale

휂(𝑡) (𝜉(𝑡)) all'istante 𝑡2 (𝑡1).

Esempio 18.5

Sia z(t) un segnale aleatorio

dato da:

𝑧(𝑡) = 𝑓(𝑥(𝑡), 𝑦(𝑡))

funzione cioè di due segnali 𝑥(𝑡)

e 𝑦(𝑡) dei quali sia assegnata la

densità di probabilità congiunta.

Per determinare la densità di

probabilità del primo ordine di

𝑧(𝑡) basta osservare che la corri-

spondente funzione di distribuzione di probabilità si ottiene dalla:

𝑃𝑧(𝑡)(𝜈) = Pr{𝑧(𝑡) ≤ 𝜈}

Detta allora Ω𝜐 la regione del piano (𝑂, 𝑥, 𝑦) (v. Fig.E 18.5) costituita da

tutte le coppie (𝑥, 𝑦) per le quali risulti 𝑓(𝑥, 𝑦) ≤ 𝜐. È evidente che il

valore assunto dalla 𝑃𝑧(𝑡)(⋅) quando il suo argomento è 𝜐 è dato da:

𝑃𝑧(𝑡)(𝜈) = Pr{(𝑥, 𝑦) ∈ Ω𝜈} = ∬ 𝑝𝑥(𝑡)𝑦(𝑡)(𝜉, 휁)𝑑𝜉𝑑휁𝛺𝜈

E' da notare che la regione Ω𝜐 po-

trebbe non essere semplicemente con-

nessa come mostra la Fig. E.IV.5

Dalla 𝑃𝑧(𝑡)(𝜐) si deduce immedia-

tamente:

𝑝𝑧(𝑡)(𝜈) =𝜕𝑃𝑧(𝑡)(𝜈)

𝜕𝜈

Nel caso in cui il segnale 𝑧(𝑡) è la

somma dei segnali 𝑥(𝑡) e 𝑦(𝑡), la re-

gione Ω𝜐 costituita da tutte le coppie (𝑥, 𝑦) che soddisfano la disugua-

lianza:

𝑥 + 𝑦 ≤ 𝜈

tale regione è il semipiano evidenziato in Fig. E.IV.6.

Si ha pertanto:

Fig.E 18.5

Fig.E 18.6

Page 336: Lezioni di TEORIA DEI SEGNALI.pdf

324 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑃𝑧(𝑡)(𝜈) = ∫ ∫ 𝑝𝑥(𝑡)𝑦(𝑡)(𝜉, 휁)𝑑𝜉𝑑휁𝑧−𝑥

−∞

−∞

quindi:

𝑝𝑧(𝑡)(𝜈) = ∫ 𝑝𝑥(𝑡)𝑦(𝑡)(𝜉, 𝜈 − 𝜉)𝑑𝜉∞

−∞

Nell’ulteriore eventualità in cui i segnali 𝑥(𝑡) e 𝑦(𝑡), siano statistica-

mente indipendenti la precedente assume la forma:

𝑝𝑧(𝑡)(𝜈) = ∫ 𝑝𝑥(𝑡)(𝜉)𝑝𝑦(𝑡)(𝜈 − 𝜉)𝑑𝜉∞

−∞

la densità di probabilità cercata è quindi in questo caso data dalla convo-

luzione tra le densità di probabilità dei due segnali.

Page 337: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19

VALORI MEDI, STAZIONARIETÀ ED ERGODICITÀ

Medie statistiche. 19.1 -

Sia 𝑠(𝑡, 휁) un segnale aleatorio associato ad un esperimento

casuale di cui 휁 rappresenta il generico risultato, al quale corrisponde

una densità di probabilità del primo ordine data da 𝑝𝑠(𝑡)(𝑥). Per un

assegnato valore di 𝑡 è individuata una variabile aleatoria 𝑠 = 𝑠(𝑡, 휁)

della quale si può calcolare il valore medio, il valore quadratico me-

dio, la varianza, o più in generale, la media di una qualunque fun-

zione misurabile 𝑦 = 𝑓(𝑠):

𝐸{𝑓(𝑠)} = 𝑓(𝑠) = ∫ 𝑓(𝑥)𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

(19.1.1)

È opportuno qui sottolineare che la media espressa dalla

(19.1.1) dipende in genere dall'istante di osservazione 𝑡.

Se 𝑓(𝑠) = 𝑠𝑛 (con 𝑛 intero) dalla (19.1.1) si ottiene il valore

medio statistico della potenza 𝑛-esima del segnale:

𝑚𝑛(𝑡) = ∫ 𝑥𝑛𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

(19.1.2)

che costituisce il momento 𝑛 -esimo del primo ordine del segnale

𝑠(𝑡).

In particolare risulta:

𝑚0(𝑡) = ∫ 𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

= 1 (19.1.3)

Per 𝑛 = 1 si ha:

𝑚(𝑡) = 𝐸{𝑠(𝑡, 휁)} = �� = ∫ 𝑥𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

(19.1.4)

che prende il nome di valore medio statistico del segnale.

Per 𝑛 = 2 si deduce:

𝑚2(𝑡) = 𝐸{𝑠2(𝑡, 휁)} = 𝑠2 = ∫ 𝑥2𝑝𝑠(𝑡)(𝑥)𝑑𝑥

−∞

(19.1.5)

Page 338: Lezioni di TEORIA DEI SEGNALI.pdf

326 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

che rappresenta il valore quadratico medio statistico del segnale.

La varianza del segnale vale evidentemente:

𝜇2(𝑡) = 𝐸{(𝑠(𝑡, 휁) − 𝑚(𝑡))2} = (𝑠 − 𝑚(𝑡))2

= ∫ (𝑥 −𝑚(𝑡))2𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

(19.1.6)

Più in generale il suo momento centrale 𝑛 -esimo del primo ordine

vale:

𝜎𝑛(𝑡) ≡ 𝜇𝑛(𝑡) = ∫ (𝑥 − 𝑚(𝑡))𝑛𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

(19.1.7)

risulta:

𝜎2(𝑡) = 𝑚2(𝑡) − 𝑚2(𝑡) (19.1.8)

Nel caso in cui la generica manifestazione del segnale 𝑠(𝑡, 𝒁)

dipenda dal valore assunto da un vettore aleatorio 𝒁 a 𝑛 dimensioni,

il valore medio di una qualunque funzione 𝑓(𝑠(𝑡, 𝒁)) misurabile può

essere calcolato anche utilizzando il teorema della:

𝑓(𝑠) = ∫ 𝑓(𝑥)𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

= ∫ 𝑓(𝑠(𝑡, 𝑧)𝑝𝒁(𝒛)𝑑𝒛ℝ𝑛

(19.1.9)

dove 𝑝𝒁(𝒛) denota la densità di probabilità congiunta associata al

vettore aleatorio 𝒁 da cui dipende il segnale.

In generale dato un segnale 𝑠 = 𝑠(𝑡, 휁) fissata 𝑛 upla 𝑡1, … , 𝑡𝑛

viene individuato un vettore 𝒔 di variabili aleatorie definite su di uno

stesso esperimento casuale le cui componenti sono rispettivamente:

𝑠1 = 𝑠(𝑡1, 휁), … , 𝑠𝑛 = 𝑠(𝑡𝑛, 휁). Data una generica funzione misurabile

𝑓(𝒔) definita in uno spazio 𝑛-dimensionale è possibile definire la

media statitistica di tale funzione ponendo:

𝑓(𝑠) = 𝐸{𝑓(𝑠)} = ∫ 𝑓(𝑥)𝑝𝑠1𝑠2…𝑠𝑛(𝑥)𝑑𝑥ℝ𝑛

(19.1.10)

dove 𝑝𝑠1𝑠2…𝑠𝑛(𝒙) indica la densità di probabilità di ordine 𝑛 del se-

gnale.

In particolare, considerando solo due istanti di tempo 𝑡1, 𝑡2 la

precedente si riduce alla:

𝑓(𝑠1, 𝑠2) = ∬ 𝑓(𝑥1, 𝑥2)𝑝𝑠1𝑠2(𝑥1, 𝑥2)𝑑𝑥1𝑑𝑥2ℝ2

(19.1.11)

Page 339: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 327

Se in particolare 𝑓(𝑠1, 𝑠2) = 𝑠1𝑝𝑠2𝑞 dalla (19.1.11) si ottiene il

momento (𝑝 + 𝑞)-esimo del secondo ordine del segnale:

𝑚𝑝𝑞(𝑡1, 𝑡2) = 𝑠1𝑝𝑠2𝑞 = 𝐸{𝑠1

𝑝𝑠2𝑞}

= ∬ 𝑥1𝑝𝑥2𝑞𝑝𝑠1𝑠2(𝑥1, 𝑥2)𝑑𝑥1𝑑𝑥2

ℝ2 (19.1.12)

che in particolare per 𝑝 = 𝑞 = 0 si riduce alla:

𝑚00(𝑡1, 𝑡2) = ∬ 𝑝𝑠1𝑠2(𝑥1, 𝑥2)𝑑𝑥1𝑑𝑥2ℝ2

= 1 (19.1.13)

e per 𝑝 = 𝑞 = 1 fornisce la cosiddetta funzione di autocorrelazione

𝑅𝑠(𝑡1, 𝑡2) del segnale:

𝑅𝑠(𝑡1, 𝑡2) ≡ 𝑚11(𝑡1, 𝑡2) = ∬ 𝑥1𝑥2𝑝𝑠1𝑠2(𝑥1, 𝑥2)𝑑𝑥1𝑑𝑥2ℝ2

(19.1.14)

Si possono anche definire dei momenti centrali (𝑝 + 𝑞)-esimi

del secondo ordine:

𝜇𝑝𝑞(𝑡1, 𝑡2) = (𝑠1 −𝑚(𝑡1))𝑝(𝑠2 −𝑚(𝑡2))

𝑞

= ∬ ∫ (𝑥1 −𝑚(𝑡1))𝑝(𝑥2

−∞R2

−𝑚(𝑡2))𝑞𝑝𝑠1𝑠2(𝑥1, 𝑥2)𝑑𝑥1𝑑𝑥2

(19.1.15)

in particolare il momento centrale 11 prende il nome di autocova-

rianza e risulta:

𝜎𝑠(𝑡1, 𝑡2) ≡ (𝑠1 −𝑚(𝑡1))(𝑠2 −𝑚(𝑡2))

= 𝑠1𝑠2 − 𝑠1 ⋅ 𝑚(𝑡2) − 𝑚(𝑡1) ⋅ 𝑠2 +𝑚(𝑡1)𝑚(𝑡2)= 𝑠1𝑠2 − 𝑚(𝑡1)𝑚(𝑡2) = 𝑅𝑠(𝑡1, 𝑡2) − 𝑠1 ⋅ 𝑠2

(19.1.16)

I momenti centrali 𝜇20 e 𝜇02 individuano la varianza del segna-

le valutata negli istanti 𝑡1 e 𝑡2 rispettivamente:

a) 𝜇20(𝑡1) = 𝜎2(𝑡1) = (𝑠1 −𝑚(𝑡1))2

(19.1.17) b) 𝜇02(𝑡2) = 𝜎2(𝑡2) = (𝑠2 −𝑚(𝑡2))

2

Anche nel caso di due segnali aleatori distinti 𝑥(𝑡) e 𝑦(𝑡), si

può definire il valore medio statistico della funzione 𝑓(𝑥1, 𝑦2) me-

diante la:

𝑓(𝑥1, 𝑦2) = 𝐸{𝑓(𝑥1, 𝑦2)} = ∬ 𝑓(𝜉, 휂)𝑝𝑥1𝑦2(𝜉, 휂)𝑑𝜉𝑑휂ℝ2

(19.1.18)

Page 340: Lezioni di TEORIA DEI SEGNALI.pdf

328 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

essendo rispettivamente 𝑥1 e 𝑦1 le variabili aleatorie 𝑥(𝑡1) e 𝑦(𝑡2) e

dove 𝑝𝑥1𝑦2(𝜉, 휂) denota la densità di probabilità congiunta dei due

segnali.

Il momento incrociato (𝑝 + 𝑞)-esimo è allora definito dalla:

𝑥1𝑝𝑦2𝑞 = 𝐸{𝑥1

𝑝𝑦2𝑞} = ∬ 𝜉𝑝휂𝑞𝑝𝑥1𝑦2(𝜉, 휂)𝑑𝜉𝑑휂

ℝ2 (19.1.19)

Qualora i segnali siano statisticamente indipendenti risulta evidente-

mente:

𝑥1𝑝𝑦2𝑞 = 𝑥1

𝑝 ⋅ 𝑦2𝑞 (19.1.20)

cioè il valore medio del binomio 𝑥1𝑝𝑦2𝑞

si ottiene dal prodotto dei va-

lori medi delle quantità 𝑥1𝑝 e 𝑦2

𝑞

Se si pone nella (19.1.19) 𝑝 = 𝑞 = 1 si ha:

𝑅𝑥𝑦(𝑡1, 𝑡2) = 𝑥1𝑦2 = 𝐸{𝑥1𝑦2} = ∬ 𝜉휂𝑝𝑥1𝑦2(𝜉, 휂)𝑑𝜉𝑑휂ℝ2

(19.1.21)

che costituisce la funzione di correlazione incrociata o di mutua correlazione

associata ai due segnali.

I momenti centrali (𝑝 + 𝑞)-esimi incrociati, sono definiti come

segue:

(𝑥1 − ��1)𝑝(𝑦2 − ��2)

𝑞 = 𝐸{(𝑥1 − ��1)𝑝(𝑦2 − ��2)

𝑞}

= ∬ (𝑥 − ��1)𝑝(𝑦 − ��2)

𝑞𝑝𝑥1𝑦2(𝑥, 𝑦)𝑑𝑥𝑑𝑦ℝ2

(19.1.22)

Ponendo 𝑝 = 𝑞 = 1 si ha:

𝜎𝑥𝑦(𝑡1, 𝑡2) ≡ (𝑥1 − ��1)(𝑦2 − ��2)

= 𝐸{(𝑥1 − ��1)(𝑦2 − ��2)}

= ∬ (𝑥 − ��1)(𝑦 − ��2)𝑝𝑥1𝑦2(𝑥, 𝑦)𝑑𝑥𝑑𝑦ℝ2

(19.1.23)

che è la covarianza mutua. Si ottiene facilmente:

𝜎𝑥𝑦(𝑡1, 𝑡2) = (𝑥1 − ��1)(𝑦2 − ��2)

= 𝑥1 ⋅ 𝑦2 − 𝑥1 ⋅ ��2 − ��1 ⋅ 𝑦2 + ��1 ⋅ ��2

= 𝑅𝑥𝑦(𝑡1, 𝑡2) − ��1 ⋅ ��2 (19.1.24)

Nel caso in cui i segnali siano statisticamente indipendenti ri-

sulta 𝑅𝑥𝑦(𝑡1, 𝑡2) = ��1 ⋅ ��2, quindi:

𝜎𝑥𝑦(𝑡1, 𝑡2) = 0 (19.1.25)

Page 341: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 329

Esempio 19.1

Si prenda in considerazione il segnale 𝑠(𝑡, 𝜑) = 𝑐𝑜𝑠(2𝜋𝑓0𝑡 + 𝜑)

analizzato nell'Esempio 18.2. Il suo valore medio risulta:

�� = ∫ 𝑥𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

=1

𝜋∫

𝑥𝑑𝑥

√1 − 𝑥2

1

−1

che ponendo 𝑥 = 𝑐𝑜𝑠휃 si scrive

�� =1

𝜋∫ cos휃𝑑휃𝜋

0

= 0

Il suo valore quadratico medio vale:

𝑠2 = ∫ 𝑥2𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

=1

𝜋∫

𝑥2𝑑𝑥

√1 − 𝑥2

1

−1

𝑠2 =1

𝜋∫ cos2휃𝑑휃𝜋

0

=1

2

Agli stessi risultati è possibile pervenire utilizzando la (19.1.9). Si ha

infatti:

�� = ∫ 𝑠(𝑡, 휃)𝑝𝜑(휃)𝑑휃∞

−∞

=1

2𝜋∫ cos(2𝜋𝑓0𝑡 + 휃)𝑑휃2𝜋

0

= 0

e

𝑠2 = ∫ 𝑠2(𝑡, 휃)𝑝𝜑(휃)𝑑휃∞

−∞

=1

2𝜋∫ cos2(2𝜋𝑓0𝑡 + 휃)𝑑휃2𝜋

0

=1

2

Stazionarietà. 19.2 -

Un segnale aleatorio 𝑠(𝑡) si dice stazionario in senso stretto se le

sue funzioni di probabilità, di qualsiasi ordine dipendono esclusiva-

mente dalla posizione relativa degli istanti in cui il segnale viene os-

servato. Cioè se risulta:

𝑝𝑠(𝑡1)…𝑠(𝑡𝑛)(𝑥1, 𝑥2, … , 𝑥𝑛)

= 𝑝𝑠(𝑡1+𝑇)…𝑠(𝑡𝑛+𝑇)(𝑥1, 𝑥2, … , 𝑥𝑛);

∀𝑛 ∈ ℕ ⋀ ∀ T ∈ ℝ

(19.2.1)

Se la precedente vale solo 𝑛 ≤ 𝑘, il segnale si dice stazionario

all'ordine 𝑘.

La condizione (19.2.1)comporta che la densità di probabilità

di ordine 𝑛 dipenda dalle differenze 𝜏𝑖𝑗 = 𝑡𝑖 − 𝑡𝑗 fra gli istanti di os-

servazione.

In particolare per 𝑛 = 2 si ha:

𝑝𝑠(𝑡1)𝑠(𝑡2)(𝑥1, 𝑥2) = 𝑝𝑠(𝑡′1)𝑠(𝑡′2)(𝑥1, 𝑥2) (19.2.2)

Page 342: Lezioni di TEORIA DEI SEGNALI.pdf

330 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

ogniqualvolta risulti 𝑡2 − 𝑡1 = 𝑡′2 − 𝑡′1, mentre la densità di probabi-

lità del primo ordine deve risultare indipendente dal tempo:

𝑝𝑠(𝑥) = 𝑝𝑠(𝑡1)(𝑥) = 𝑝𝑠(𝑡2)(𝑥); ∀𝑡1, 𝑡2 ∈ ℝ (19.2.3)

Si noti che dal momento che la densità di probabilità di ordine

𝑛 − 1 può essere dedotta da quella di ordine 𝑛 la stazionarietà all'or-

dine 𝑘 comporta quella agli ordini inferiori, ma non il viceversa.

Una classe importante di segnali è costituita dai segnali stazio-

nari in senso lato. Un segnale si dice stazionario in senso lato se risulta:

a) 𝑠(𝑡, 휁) = cost (19.2.4)

b) 𝑠(𝑡1, 휁)𝑠(𝑡2, 휁) = 𝑅𝑠(𝑡2 − 𝑡1)

cioè se il suo valore medio è indipendente dal tempo e se la sua l'au-

tocorrelazione dipende solo dalla differenza fra gli istanti 𝑡2 e 𝑡1.

E' evidente che, essendo 𝑅𝑠(0) = 𝑠2(𝑡) la stazionarietà in sen-

so lato implica che anche il valore quadratico medio non dipende da

𝑡.

E' opportuno osservare che un segnale stazionario in senso

stretto lo è anche in senso lato, ma non viceversa giacché, ad esem-

pio, l'invarianza temporale del momento del secondo ordine non im-

plica necessariamente quella della corrispondente densità di probabi-

lità.

Esempio 19.2

Si prenda in esame il segnale 𝑠(𝑡) definito dalla:

𝑠(𝑡) = 𝐴cos𝜔𝑡 + 𝐵sin𝜔𝑡

essendo 𝐴 e 𝐵 due quantità aleatorie tali che risulti:

𝐴2 = 𝐵2 = 𝜎2

𝐴𝐵 = 0

Il valor medio di 𝑠(𝑡) vale:

𝑠(𝑡) = ��cos𝜔𝑡 + ��𝑠𝑖𝑛𝜔𝑡

Per quanto riguarda la funzione di autocorrelazione, si ha:

𝑠(𝑡1)𝑠(𝑡2)

= 𝐴2 cos𝜔𝑡1cos𝜔𝑡2 + 𝐵2 sin𝜔𝑡1sin𝜔𝑡2 + 𝐴𝐵 [cos𝜔𝑡1sin𝜔𝑡2 + sin𝜔𝑡1cos𝜔𝑡2]

che per le ipotesi fatte, diventa:

𝑠(𝑡1)𝑠(𝑡2) = 𝜎2[cos𝜔𝑡1cos𝜔𝑡2 + sin𝜔𝑡1sin𝜔𝑡2] = 𝜎2cos(𝜔(𝑡2 − 𝑡1))

Un tale segnale è quindi stazionario in senso lato solo se risulta

Page 343: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 331

�� = �� = 0

Esempio 19.3

Si consideri il segnale

𝑠(𝑡) = cos(2𝜋𝑓0𝑡 + 𝜑)

in cui 𝜑 è una variabile aleatoria definita in (0,2𝜋) e caratterizzata dalla

densità di probabilità del primo ordine 𝑝𝜑(휃).

Per determinare le condizioni sotto le quali 𝑠(𝑡) è un segnale stazio-

nario in senso stretto, si prenda in considerazione la sua funzione ca-

ratteristica di ordine 𝑛, che individua univocamente la sua densità di pro-

babilità di ordine 𝑛

Detto 𝒕 = {𝑡1, 𝑡2, … , 𝑡𝑛} un insieme di 𝑛 istanti di tempo, si ha:

𝐹𝑛(𝑢, 𝑡) = exp[𝑗∑𝑢𝑖cos(2𝜋𝑓0𝑡𝑖 + 𝜑)

𝑛

𝑖=1

]

= ∫ exp[𝑗∑𝑢𝑖cos(2𝜋𝑓0𝑡𝑖 + 휃)

𝑛

𝑖=1

]𝑝𝜑(휃)𝑑휃

2𝜋

0

per 𝒕´ = {𝑡1 + 𝑇, 𝑡2 + 𝑇,… , 𝑡𝑛 + 𝑇} la funzione caratteristica vale:

𝐹′𝑛(𝑢, 𝑡) = ∫ e𝑗∑ 𝑢𝑖cos(2𝜋𝑓0𝑡𝑖+𝜃+2𝜋𝑓0𝑇)𝑛

𝑖=1 𝑝𝜑(휃)𝑑휃2𝜋

0

= ∫ e𝑗∑ 𝑢𝑖cos(2𝜋𝑓0𝑡𝑖+𝜃′)𝑛

𝑖=1 𝑝𝜑(휃′ + 2𝜋𝑓0𝑇)𝑑휃2𝜋(1+𝑓0𝑇)

2𝜋𝑓0𝑇

Affinché il segnale risulti stazionario in senso stretto 𝐹𝑛(𝒖, 𝒕) =

𝐹′𝑛(𝒖, 𝒕′) in corrispondenza ad ogni indice 𝑛, per ogni possibile scelta di

𝒕 e per ogni valore di 𝑇.

dato che la quantità

e𝑗∑ 𝑢𝑖cos(2𝜋𝑓0𝑡𝑖+𝜃)𝑛

𝑖=1

indipendentemente da 𝑛 è periodica di periodo 2𝜋 in 휃 si intuisce fa-

cilmente che l’unica densità di probabilità 𝑝𝜑(휃). che rende il segnale in

questione stazionario in senso stretto è quella uniforme deve cioè essere:

𝑝𝜑(휃) =1

2𝜋⊓ (

휃 − 𝜋

2𝜋)

Esempio 19.4

Si consideri il seguente segnale aleatorio

Page 344: Lezioni di TEORIA DEI SEGNALI.pdf

332 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑠(𝑡) =

{

cos2𝜋𝑓0𝑡 + sin2𝜋𝑓0𝑡Pr =

1

3

−sin2𝜋𝑓0𝑡Pr =1

3

−cos2𝜋𝑓0𝑡Pr =1

3

Ciò significa lo spazio dei risultati è partizionato in tre eventi E1, E2, E3,

equiprobabili, ai quali sono associate le tre possibili manifestazioni.

Il segnale qui considerato è stazionario in senso lato. Infatti, il suo va-

lor medio:

𝑠(𝑡) =1

3(cos2𝜋𝑓0𝑡 + sin2𝜋𝑓0𝑡) −

1

3sin2𝜋𝑓0𝑡 −

1

3cos2𝜋𝑓0𝑡 = 0

è nullo (quindi indipendente da 𝑡) e la sua funzione di autocorrelazione:

𝑠(𝑡1)𝑠(𝑡2)

=1

3(cos2𝜋𝑓0𝑡1 + sin2𝜋𝑓0𝑡1)(cos2𝜋𝑓0𝑡2 + sin2𝜋𝑓0𝑡2) −

1

3sin2𝜋𝑓0𝑡1sin2𝜋𝑓0𝑡2

−1

3cos2𝜋𝑓0𝑡1cos2𝜋𝑓0𝑡2 =

1

3(cos2𝜋𝑓0𝑡1sin2𝜋𝑓0𝑡2 + sin2𝜋𝑓0𝑡1cos2𝜋𝑓0𝑡2)

=1

3cos(2𝜋𝑓0(𝑡1 − 𝑡2))

dipende soltanto dalla differenza 𝑡2 − 𝑡1.

Il segnale però non è stazionario in senso stretto. Per rendersene con-

to, basta osservare che la densità di probabilità del primo ordine all'istan-

te 𝑡 = 0 vale:

𝑝𝑠(0)(𝑥) =1

3𝛿(𝑥 − 1) +

1

3𝛿(𝑥) +

1

3𝛿(𝑥 + 1)

e

𝑝𝑠(

1

8𝑓0)(𝑥) =

2

3𝛿(𝑥 +

√2

2) +

1

3𝛿(𝑥 − √2)

quindi:

𝑝𝑠(0)(𝑥) ≠ 𝑝𝑠(

1

8𝑓0)(𝑥)

Medie temporali ed ergodicità. 19.3 -

Le considerazioni sin qui svolte mostrano come è possibile ot-

tenere delle informazioni su un segnale aleatorio a partire dall'insie-

me delle sue manifestazioni note che siano le sue funzioni di proba-

bilità.

In molti casi si hanno a disposizione alcune manifestazioni del

segnale (se non una sola) dalle quale possono dedursi solo quelle in-

Page 345: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 333

formazioni che si ottengono utilizzando le cosiddette medie tempo-

rali.

Se 𝑠(𝑡) denota la generica manifestazione di un segnale aleato-

rio, la quantità

< 𝑓[𝑠(𝑡)] >= lim𝑇→∞

1

2𝑇∫ 𝑓[𝑠(𝑡)]𝑑𝑡𝑇

−𝑇

(19.3.1)

se esiste, costituisce la media temporale della funzione f (s) associata al-

la manifestazione 𝑠(𝑡) del segnale.

Dalla (19.3.1) si possono in particolare dedurre il valore medio

temporale:

< 𝑠(𝑡) >= lim𝑇→∞

1

2𝑇∫ 𝑠(𝑡)𝑑𝑡𝑇

−𝑇

(19.3.2)

e il valore quadratico medio temporale:

< 𝑠2(𝑡) >= lim𝑇→∞

1

2𝑇∫ 𝑠2(𝑡)𝑑𝑡𝑇

−𝑇

(19.3.3)

che esprime la potenza media specifica associata alla manifestazione

𝑠(𝑡).

Più in generale si può definire una media temporale associata

alla funzione 𝑓[𝑠(𝑡1 + 𝑡), 𝑠(𝑡2 + 𝑡), … , 𝑠(𝑡𝑛 + 𝑡)]

< 𝑓[𝑠(𝑡1 + 𝑡), 𝑠(𝑡2 + 𝑡), … , 𝑠(𝑡𝑛 + 𝑡)] >

= lim𝑇→∞

1

2𝑇∫ 𝑓[𝑠(𝑡1 + 𝑡), 𝑠(𝑡2 + 𝑡), … , 𝑠(𝑡𝑛 + 𝑡)]𝑑𝑡𝑇

−𝑇

(19.3.4)

Dalla precedente in particolare discende l'espressione della

funzione di autocorrelazione in media temporale (7.6.1), per segnali reali. È

infatti:

𝛾𝑠(𝜏) =< 𝑠(𝑡)𝑠(𝑡 + 𝜏) >= lim𝑇→∞

1

2𝑇∫ 𝑠(𝑡)𝑠(𝑡 + 𝜏)𝑑𝑡𝑇

−𝑇

(19.3.5)

E' da notare che, in ogni caso, le medie temporali, fornite dalla

(19.3.2)o dalla (19.3.4), definiscono altrettante variabili aleatorie, dato

che esse dipendono dalla manifestazione del segnale che si prende in

considerazione. È quindi possibile definire un loro valore medio sta-

tistico a mezzo della:

Page 346: Lezioni di TEORIA DEI SEGNALI.pdf

334 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

< 𝑓[𝑠(𝑡)] > = lim𝑇→∞

1

2𝑇∫ 𝑓[𝑠(𝑡)]𝑑𝑡𝑇

−𝑇

= lim𝑇→∞

1

2𝑇∫ 𝑓[𝑠(𝑡)] 𝑑𝑡𝑇

−𝑇

=< 𝑓[𝑠(𝑡)] >

(19.3.6)

In maniera analoga, partendo dalla (19.3.4) si perviene alla:

< 𝑓[𝑠(𝑡1 + 𝑡), 𝑠(𝑡2 + 𝑡), … , 𝑠(𝑡𝑛 + 𝑡)] > =< 𝑓[𝑠(𝑡1 + 𝑡), 𝑠(𝑡2 + 𝑡), … , 𝑠(𝑡𝑛 + 𝑡)] > (19.3.7)

Le (19.3.6) e (19.3.7) stanno a significare che le operazioni di

media temporale e media statistica possono essere tra loro permuta-

te.

Le medie temporali, di per sè, non permettono dunque di ot-

tenere delle informazioni di natura statistica del segnale. Tuttavia esi-

ste una particolare classe di segnali per i quali ogni proprietà statistica

può essere determinata a partire da una qualsiasi manifestazione. In

altri termini, qualsiasi operazione di media effettuata nel tempo su

una generica manifestazione conduce agli stessi risultati se si effettua

l'operazione analoga sulla base dell'insieme delle manifestazioni.

Un segnale di tale tipo si dice ergodico. In genere si è interessati

ad un particolare caratteristica del segnale (valore medio, potenza

specifica o autocorrelazione). Di conseguenza l'ergodicità viene for-

mulata limitatamente alla caratteristica d’interesse in quanto se un se-

gnale aleatorio è ergodico rispetto a certi parametri può non esserlo

per altri.

In particolare un segnale si dice ergodico in media quando ri-

sulta:

lim𝑇→∞

1

2𝑇∫ 𝑠(𝑡)𝑑𝑡𝑇

−𝑇

= ∫ 𝑥𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

(19.3.8)

si dice ergodico in media quadratica se:

lim𝑇→∞

1

2𝑇∫ 𝑠2(𝑡)𝑑𝑡𝑇

−𝑇

= ∫ 𝑥2𝑝𝑠(𝑡)(𝑥)𝑑𝑥∞

−∞

(19.3.9)

La condizione di ergodicità limitata alla funzione di autocorre-

lazione conduce alla:

𝛾𝑠(𝜏) = 𝑅𝑠(𝜏) (19.3.10)

cioè:

Page 347: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 335

lim𝑇→∞

1

2𝑇∫ 𝑠(𝑡)𝑠(𝑡 + 𝜏)𝑑𝑡𝑇

−𝑇

=∬ 𝑥𝑦𝑝𝑠1𝑠2(𝑥, 𝑦)𝑑𝑥𝑑𝑦R2

(19.3.11)

In questo caso si può affermare che un segnale ergodico in au-

tocorrelazione deve presentare una media temporale 𝛾𝑠(𝜏) indipen-

dente dalla manifestazione e una media statistica 𝑅𝑠(𝜏) dipendente

solo dalla differenza 𝜏 tra gli istanti di osservazione 𝑡2 e 𝑡1.

Più in generale, affinché la condizione di ergodicità sia soddi-

sfatta, e necessario che le medie temporali non dipendano dalla par-

ticolare manifestazione sulla quale vengono calcolate, e che le medie

statistiche non dipendano dall’origine dei tempi, ma soltanto dalla

posizione relativa tra gli istanti in cui la media statistica è valutata.

Ciò significa che una condizione necessaria per l’ergodicità è la sta-

zionarietà in senso stretto.

Per meglio comprendere il significato della condizione di er-

godicità si prenda in considerazione la (19.3.1), l'integrale che vi

compare, può essere valutato dividendo l'intervallo [−𝑇, 𝑇] in 𝑛 su-

bintervalli contigui di uguale ampiezza e quindi passando al limite

per 𝑛 → ∞:

< 𝑓(𝑠(𝑡)) >= lim𝑛→∞

1

2𝑇∑

2𝑇

𝑛𝑓 (𝑠 (−𝑇 +

𝑖

𝑛2𝑇))

𝑛

𝑖=1

= lim𝑛→∞

1

𝑛∑𝑓(𝑠 (−𝑇 +

𝑖

𝑛2𝑇))

𝑛

𝑖=1

(19.3.12)

D'altra parte la media statistica può essere espressa in una

forma analoga alla (19.3.12) mediante la:

𝑓[𝑠] = lim𝑛→∞

1

𝑛∑𝑓(𝑠(𝑡, 𝜍𝑖))

𝑛

𝑖=1

(19.3.13)

cioè come limite della somma dei valori assunti all'istante 𝑡 da un in-

sieme di 𝑛 manifestazioni del segnale divisa per 𝑛 al tendere di 𝑛 al-

l'infinito.

La condizione di ergodicità in media comporta l'uguaglianza

dei limiti (19.3.12) e (19.3.13) quindi il poter assumere per 𝑛 suffi-

cientemente elevato

Page 348: Lezioni di TEORIA DEI SEGNALI.pdf

336 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

1

𝑛∑𝑓 (𝑠 (−𝑇 + 𝑖

2𝑇

𝑛))

𝑛

𝑖=1

≅1

𝑛∑𝑓(𝑠(𝑡, 𝜍𝑖))

𝑛

𝑖=1

(19.3.14)

Ciò significa che la somma dei valori assunti dalla funzione 𝑓(⋅) in

corrispondenza all'insieme dei valori assunti all'istante 𝑡 dalle possibi-

li manifestazioni del segnale, eguaglia la somma dei valori assunti dal-

la funzione valutata in corrispondenza di una qualsiasi manifestazio-

ne al variare del tempo.

In altri termini i valori che assume al variare del tempo una

manifestazione, si ritrovano in una qualsiasi altra, con la stessa fre-

quenza, seppur disposti in un diverso ordine temporale. Ogni mani-

festazione può quindi pensarsi ottenuta “rimescolando” i valori che

tutte le manifestazioni assumono in un istante qualsiasi.

Ergodicità delle funzioni di probabilità del primo 19.4 - ordine.

L'ipotesi di ergodicità,

discussa nel precedente para-

grafo, può consentire di valuta-

re le funzioni di probabilità del

primo ordine di un segnale

aleatorio pur disponendo sol-

tanto di una manifestazione di

esso.

A tale scopo si consideri

un segnale aleatorio 𝑠(𝑡, 휁) e sia 𝑥 un reale qualsiasi. A 𝑠(𝑡, 휁) si asso-

ci un nuovo segnale 𝑤𝑥(𝑠(𝑡, 휁)) così definito:

𝑤𝑥(𝑠(𝑡, 휁)) = u(𝑥 − 𝑠(𝑡, 휁)) (19.4.1)

Il segnale 𝑤𝑥(𝑠(𝑡, 휁)) in ogni istante individua una variabile

aleatoria di tipo discreto, che può assumere solo valori appartenenti

all'insieme {0,1} com’è indicato nella Fig. 19.1.

Risulta:

Pr{𝑤𝑥(𝑠(𝑡, 휁)) = 0} = Pr{𝑠(𝑡, 휁) > 𝑥}

Pr{𝑤𝑥(𝑠(𝑡, 휁)) = 1} = Pr{𝑠(𝑡, 휁) ≤ 𝑥} (19.4.2)

Il valore medio statistico di 𝑤𝑥(𝑠(𝑡, 휁)) vale:

Fig. 19.1 - Ergodicità delle funzioni di probabilità

Page 349: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 337

𝑤𝑥(𝑠(𝑡, 휁)) = 1 ⋅ Pr{𝑠(𝑡, 휁) ≤ 𝑥} + 0 ⋅ Pr{𝑠(𝑡, 휁) > 𝑥}= Pr{𝑠(𝑡, 휁) ≤ 𝑥} = 𝑃𝑠(𝑡)(𝑥) (19.4.3)

dove 𝑃𝑠(𝑡)(𝑥) denota la funzione distribuzione di probabilità del pri-

mo ordine associata al segnale 𝑠(𝑡).

D'altra parte la media temporale di una data manifestazione

𝑤𝑥(𝑠(𝑡, 휁)) del segnale vale:

< 𝑤𝑥(𝑠(𝑡, 휁)) >= lim𝑇→∞

1

𝑇∫ 𝑤𝑥(𝑠(𝑡, 휁))𝑑𝑡

𝑇

2

−𝑇

2

= lim𝑇→∞

𝜇[𝑠−1((−∞, 𝑥], 휁) ∩ [−𝑇

2,𝑇

2]]

𝑇

(19.4.4)

Dove 𝜇 (𝑠−1((−∞, 𝑥], 휁) ∩ [−𝑇

2,𝑇

2]) è la misura dell'insieme degli

istanti di tempo appartenenti a [−𝑇

2,𝑇

2] in corrispondenza ai quali la

manifestazione del segnale 𝒔 non supera 𝑥 (v. Fig. 19.1).

Se la condizione di ergodicità è soddisfatta deve aversi indi-

pendentemente dalla manifestazione considerata:

𝑃𝑠(𝑡)(𝑥) = lim𝑇→∞

𝜇 (𝑠−1((−∞,𝑥], 휁) ∩ [−𝑇

2,𝑇

2])

𝑇 (19.4.5)

Esempio 19.5

Si consideri ancora il segnale

𝑠(𝑡, 𝜑) = cos(2𝜋𝑓0𝑡 + 𝜑)

dove la fase 𝜑 è una variabile uniformemente distribuita in [0,2𝜋].

Sulla base della Fig.E 19.1 è facile riconoscere che un generico i-

stante di tempo per il quale 𝑠(𝑡,)𝑥 deve soddisfare la disuguaglianza:

2𝑘𝜋 + arccos𝑥 ≤ 2𝜋𝑓0𝑡 + 𝜑 ≤ (2𝑘 + 1)𝜋 − arccos𝑥

la quale, al variare dell’intero 𝑘 e per 𝑥[1,1], identifica la famiglia di

intervalli:

𝐼𝑘 = [2𝑘𝜋 + arccos𝑥 − 𝜑

2𝜋𝑓0,(2𝑘 + 1)𝜋 − arccos𝑥 − 𝜑

2𝜋𝑓0]

Page 350: Lezioni di TEORIA DEI SEGNALI.pdf

338 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

nei quali la 𝑤𝑋(𝑠(𝑡,)) assume il valore 1. La misura 𝑡𝑋 di ogni inter-

vallo non dipende né dalla manifestazione né dall’indice 𝑘 e vale

𝜋−2arccos𝑥

2𝜋𝑓0

La 𝑤𝑋(𝑠(𝑡,)) è periodica pertanto la sua media temporale coincide

con quella in un periodo si ha quindi:

< 𝑤𝑥(𝑠(𝑡, 𝜑)) >= {

0; 𝑥 ≤ −1

𝑓0𝛥𝑡𝑥 =1

2−arccos𝑥

𝜋; −1 < 𝑥 < 1

1; 𝑥 ≥ −1

Si può constatare che la media appena ottenuta coincide con la distri-

buzione di probabilità

del segnale (vedi

Esempio 18.2).

In effetti il segnale

in questione risulta er-

godico seppur limitata-

mente alle medie del

primo ordine. Infatti,

data una funzione 𝜓(⋅)

integrabile alla Le-

besgue in [1,1], risul-

ta:

< 𝜓(cos(2𝜋𝑓0𝑡 + 𝜑)) >= lim𝑇→∞

1

2𝑇∫ 𝜓(cos(2𝜋𝑓0𝑡 + 𝜑))𝑑𝑡∞

−∞

= 𝑓0∫ 𝜓(cos(2𝜋𝑓0𝑡 + 𝜑))𝑑𝑡

1

𝑓0

0

= 𝑓0∫ 𝜓(cos(2𝜋𝑓0𝑡))𝑑𝑡

1

𝑓0

0

=1

2𝜋∫ 𝜓(cos(𝜗))𝑑𝜗2𝜋

0

La corrispondente media statistica vale:

𝜓(cos(2𝜋𝑓0𝑡 + 𝜑)) = ∫ 𝜓(cos(2𝜋𝑓0𝑡 + 𝜗))𝑝𝜑(𝜗)𝑑𝜗∞

−∞

=1

2𝜋∫ 𝜓(cos(2𝜋𝑓0𝑡 + 𝜗))𝑑𝜗2𝜋

0

=1

2𝜋∫ 𝜓(cos(𝜗))𝑑𝜗2𝜋

0

Pertanto per le medie del primo ordine la condizione di ergodicità è

soddisfatta poiché risulta:

< 𝜓(cos(2𝜋𝑓0𝑡 + 𝜑)) >= 𝜓(cos(2𝜋𝑓0𝑡 + 𝜑)) =1

2𝜋∫ 𝜓(cos(𝜗))𝑑𝜗2𝜋

0

Fig.E 19.1

Page 351: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 19 – Valori Medi, Stazionarietà ed Ergodicità - 339

Il segnale in questione non è tuttavia ergodico come si può verificare

calcolando medie di ordine superiore al primo.

Page 352: Lezioni di TEORIA DEI SEGNALI.pdf
Page 353: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 20

SEGNALI GAUSSIANI

Variabili aleatorie congiuntamente gaussiane. 20.1 -

Sia dato un vettore 𝑿 = [𝑋1, 𝑋2, … , 𝑋𝑛]𝑇 di 𝑛 variabili aleatorie

definite su di uno stesso esperimento casuale. Le variabili

𝑋1, 𝑋2, … , 𝑋𝑛 si dicono congiuntamente gaussiane se la loro densità di

probabilità congiunta è del tipo:

𝑝𝑋(𝑥1, 𝑥2, … 𝑥𝑛) = 𝐾𝑒−1

2𝑄(𝑥1−𝑚1,𝑥2−𝑚2,…,𝑥𝑛−𝑚𝑛) (20.1.1)

dove 𝑄 è una forma quadratica definita positiva:

𝑄 =∑∑𝑎𝑖𝑗(𝑥𝑖 −𝑚𝑖)(𝑥𝑗 −𝑚𝑗);

𝑛

𝑗=1

𝑛

𝑖=1

𝑎𝑖𝑗 = 𝑎𝑗𝑖 (20.1.2)

𝐾 un’opportuna costante di normalizzazione ed 𝑚1, 𝑚2, …𝑚𝑛 𝑛 co-

stanti reali.

Ponendo:

𝒙 = [𝑥1 𝑥2 … 𝑥𝑛]𝑇; 𝒎 = [𝑚1 𝑚2 … 𝑚𝑛]𝑇 (20.1.3)

e introducendo la matrice12:

𝛴−1 = [

𝑎11 𝑎12 … 𝑎1𝑛𝑎21 𝑎22 … 𝑎2𝑛… … … …𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛

] (20.1.4)

la densità di probabilità (20.1.1) può ulteriormente scriversi:

𝑝𝑿(𝒙) = 𝐾𝑒−1

2(𝒙−𝒎)𝑇𝛴−1(𝒙−𝒎)

(20.1.5)

Funzione caratteristica di variabili aleatorie con-20.2 - giuntamente gaussiane.

La funzione caratteristica associata al vettore aleatorio

𝒀 = 𝑿 −𝒎. Detta funzione per definizione vale:

𝐹𝒀(𝒖) = 𝑒𝑗𝒖𝑇𝒀 = 𝑒𝑗𝒖

𝑻(𝑿−𝒎) (20.2.1)

12 Si noti che la forma quadratica è definita positiva quindi la matrice dei coefficienti ad es-sa associata è certamente non singolare.

Page 354: Lezioni di TEORIA DEI SEGNALI.pdf

342 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

dove:

𝒖 = [

𝑢1𝑢2…𝑢𝑛

] ; 𝒚 = [

𝑥1 −𝑚1

𝑥2 −𝑚2

…𝑥𝑛 −𝑚𝑛

] (20.2.2)

Tenuto conto dell'espressione della densità di probabilità (20.1.5), la

(20.2.1) si può ancora scrivere:

𝐹𝒀(𝒖)

= 𝐾∫ 𝑒𝑗𝒖𝑇(𝒙−𝒎)−

1

2(𝒙−𝒎)𝑇𝛴−1(𝒙−𝒎)𝑑𝒙

𝑅𝑛

=𝐾∫ 𝑒𝑗𝒖𝑇𝒚−

1

2𝒚𝑇𝛴−1𝒚𝑑𝒚

𝑅𝑛

(20.2.3)

Sia 𝑇 una matrice ortonormale che diagonalizza la matrice 𝛴,

cioè tale che si abbia:

𝑇𝑇𝛴𝑇 = diag[𝜆1, 𝜆2, … , 𝜆𝑛] (20.2.4)

essendo:

diag[𝜆1, 𝜆2, … , 𝜆𝑛] = [

𝜆1 0 … 00 𝜆2 … 0… … … …0 0 … 𝜆𝑛

] (20.2.5)

i cui elementi, come è noto, sono gli autovalori della matrice 𝛴.

Dalla (20.2.4) discende facilmente:

𝑇𝑇𝛴−1𝑇 = diag [1

𝜆1,1

𝜆2, … ,

1

𝜆𝑛] (20.2.6)

Se nell'integrale all'ultimo membro della (20.2.3) si effettua la seguen-

te trasformazione di variabili:

𝒛 = 𝑇−1𝒚 = 𝑇𝑇𝒚 (20.2.7)

cui, in virtù della ortonormalità della matrice 𝑇, corrisponde un de-

terminante Jacobiano di modulo unitario. Si ottiene:

𝐹𝒀(𝒖) = 𝐾∫ 𝑒𝑗𝒖𝑇𝑇𝒛−

1

2𝒛𝑇𝑇𝑇𝛴−1𝑇𝒛𝑑𝒛

𝑅𝑛 (20.2.8)

Ponendo inoltre:

𝒖 = 𝑻𝒗 (20.2.9)

Tramite la (20.2.4), si ottiene ancora:

Page 355: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 20 – Segnali Gaussiani - 343

𝐹𝒀(𝑇𝒗) = 𝐾∫ 𝑒𝑗𝒗𝑇𝒛−

1

2𝒛𝑇diag(

1𝜆1,1𝜆2,…,

1𝜆𝑛)𝒛𝑑𝒛

𝑅𝑛

= 𝐾∫ 𝑒∑ (𝑗𝑣𝑖𝑧𝑖−

𝑧𝑖2

2𝜆𝑖)𝑛

𝑖=1𝑑𝒛

𝑅𝑛

= 𝐾∏∫ 𝑒𝑗𝑣𝑖𝑧𝑖−

𝑧𝑖2

2𝜆𝑖𝑑𝑧𝑖

−∞

𝑛

𝑖=1

(20.2.10)

L’integrale ad argomento della produttoria è riconducibile all’integra-

le noto:

∫ 𝑒𝑗β𝑥−α𝑥2𝑑𝑥

−∞

= √𝜋

𝛼𝑒−

𝛽2

4𝛼 (20.2.11)

Con 𝛼 anche complesso purché con parte reale strettamente positiva.

ponendo 𝑣𝑖 = β e 1

2𝜆𝑖= α in ogni fattore della produttoria nella (20.2.10),

otteniamo:

𝐹𝒀(𝑇𝒗) = 𝐾∏∫ 𝑒𝑗𝑣𝑖𝑧𝑖−

1

2𝜆𝑖𝑧𝑖2

𝑑𝑧𝑖

−∞

𝑛

𝑖=1

= 𝐾∏√2𝜋𝜆𝑖𝑒−𝜆𝑖𝑣𝑖

2

2

𝑛

𝑖=1

(20.2.12)

Calcolando la produttoria all'ultimo membro della precedente

si ottiene per la funzione caratteristica associata alle 𝑛 variabili aleato-

rie 𝒀 = 𝑿 −𝒎 l'espressione:

𝐹𝒀(𝒖) = 𝐹𝒀(𝑇𝒗) = 𝐾((2𝜋)𝑛|𝛴|)

1

2∏𝑒−𝜆𝑖𝑣𝑖

2

2

𝑛

𝑖=1

= 𝐾√(2𝜋)𝑛|𝛴|𝑒−1

2∑ 𝜆𝑖𝑣𝑖

2𝑛𝑖=1

= 𝐾√(2𝜋)𝑛|𝛴|𝑒−1

2𝒗𝑇diag[𝜆1,𝜆2,…,𝜆𝑛]𝒗

= 𝐾√(2𝜋)𝑛|𝛴|𝑒−1

2𝒖𝑇𝑇diag[𝜆1,𝜆2,…,𝜆𝑛]𝑇

𝑇𝒖

= 𝐾√(2𝜋)𝑛|𝛴|𝑒−1

2𝒖𝑇𝛴𝒖

(20.2.13)

dalla quale imponendo la condizione di normalizzazione 𝐹(𝒐) = 1, si

ottiene per la costante 𝐾 il valore

𝐾 =

1

√(2𝜋)𝑛|𝛴|

(20.2.14)

che sostituito nella (20.2.13) consente finalmente di scrivere:

𝐹𝒀(𝒖) = 𝑒−1

2𝒖𝑇𝛴𝒖 (20.2.15)

Sostituendo il valore appena ottenuto per la costante 𝐾 nel-

l’espressione della densità di probabilità (20.1.5) di un vettore di va-

riabili aleatorie congiuntamente gaussiane si ottiene:

Page 356: Lezioni di TEORIA DEI SEGNALI.pdf

344 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑝𝑿(𝒙) =1

√(2𝜋)𝑛|𝛴|𝑒−

1

2(𝒙−𝒎)𝑇𝛴−1(𝒙−𝒎)

(20.2.16)

che è univocamente determinata noti che siano la matrice 𝛴 e il vet-

tore 𝒎.

Densità di probabilità di ordine inferiore. 20.3 -

Nota la funzione caratteristica associata ad 𝑛 variabili aleatorie

è in generale possibile dedurre le funzioni caratteristiche relative ad

un qualunque sottoinsieme di esse. A tal fine si consideri un vettore

in ℝ𝑛 del tipo ��𝑖 = [𝑢1, … 𝑢𝑖−1, 0, 𝑢𝑖+1, … , 𝑢𝑛], cioé caratterizzato

dall'avere la 𝑖-esima componente pari a zero. Un vettore del tipo an-

zidetto può essere ottenuto da un generico vettore 𝒘 appartenente a

ℝ𝑛−1 premoltiplicando quest'ultimo per una matrice 𝑯𝑖 d’ordine

𝑛 × (𝑛 − 1) ottenuta inserendo nella matrice unitaria di ordine 𝑛 − 1

una riga nulla nella 𝑖-esima posizione. Se si valuta la funzione caratte-

ristica in corrispondenza di ��𝑖 si ottiene:

𝐹𝑿(��𝑖) = 𝐹𝑿(𝐻𝑖𝒘) = 𝑒𝑗(𝐻𝑖𝒘)𝑇𝒙 = 𝑒𝑗𝑤

𝑇𝐻𝑖𝑇𝒙

(20.3.1)

Si osservi che in virtù della definizione data per la matrice 𝑯𝑖 ,

𝒛 = 𝐻𝑖𝑇𝒙 = [𝑧1 = 𝑥1, … , 𝑧𝑖−1 = 𝑥𝑖−1, 𝑧𝑖 = 𝑥𝑖+1, … 𝑧𝑛−1 = 𝑥𝑛]

𝑇 è un vet-

tore a 𝑛 − 1 dimensioni, ottenuto eliminando la componente 𝑖-esima

di 𝒙. In modo analogo s’individua il vettore di variabili aleatorie

𝒁 = 𝐻𝑖𝑇𝑿. In termini dei vettori appena definiti si ottiene:

𝐹𝑿(��𝑖) = 𝑒𝑗𝒘𝑇𝐻𝑖

𝑇𝒙 = 𝑒𝑗𝒘

𝑇𝒛 = ∫𝑒𝑗𝒘𝑇𝐻𝑖

𝑇𝒙𝑝𝑿(𝒙)𝑑𝒙

ℝ𝑛

= ∫ 𝑒𝑗𝒘𝑇𝒛 (∫ 𝑝𝑿(𝒙)𝑑𝑥𝑖

−∞

)𝑑𝒛

ℝ𝑛−1

= ∫ 𝑒𝑗𝒘𝑇𝒛𝑝𝒁(𝒛)𝑑𝒛

ℝ𝑛−1

= 𝐹𝒁(𝒘)

(20.3.2)

che rappresenta la funzione caratteristica delle 𝑛 − 1 variabili aleato-

rie 𝑋1, … , 𝑋𝑖−1, 𝑋𝑖+1, … , 𝑋𝑛.

La (20.3.2) consente di affermare che, nota la funzione carat-

teristica associata a 𝑛 variabili aleatorie definite su di uno stesso espe-

rimento casuale, è possibile ottenere quella associata ad un qualun-

que sottoinsieme di esse. Essa si ottiene ponendo, nella funzione ori-

ginaria, uguali a zero le componenti del vettore 𝒖 corrispondenti alle

variabili che non appartengono al sottoinsieme di interesse.

Page 357: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 20 – Segnali Gaussiani - 345

Ponendo 𝒁 = 𝐻𝑖𝑇𝒀 nella (20.2.15), tenuto conto della (20.3.2)si

ottiene:

𝐹𝒁(𝒘) = 𝐹𝒀(��𝑖) = 𝑒−1

2��𝑖𝑇𝛴��𝑖 = 𝑒−

1

2𝒘𝑇𝐻𝑖

𝑇𝛴𝐻𝑖𝒘 = 𝑒−1

2𝑤𝑇��𝑖𝒘 (20.3.3)

dove ��𝑖 ≜ 𝐻𝑖𝑇𝛴𝐻𝑖 è la matrice che si ottiene da 𝛴 cancellando la riga e

la colonna 𝑖-esima. ��𝑖 è pertanto una matrice definita positiva.

Ponendo nella (20.3.3) 𝑽 = 𝐻𝑖𝑇𝑿, 𝒗 = 𝐻𝑖

𝑇𝒙 e 𝒎𝑣 = 𝐻𝑖𝑇𝒎, si ot-

tiene la densità di probabilità:

𝑝𝐻𝑖𝑇𝑿(𝐻𝑖

𝑇𝒙) =1

√(2𝜋)𝑛−1|��𝑖|𝑒−

1

2(𝐻𝑖

𝑇(𝒙−𝒎))𝑇��𝑖−1𝐻𝑖

𝑇(𝒙−𝒎)

=1

√(2𝜋)𝑛−1|��𝑖|𝑒−

1

2(𝒗−𝒎𝒗)

𝑇��𝑖−1𝒗−𝒎𝒗 = 𝑝𝑽(𝒗)

(20.3.4)

che assicura che se la densità di probabilità congiunta di 𝑛 varaibili

aleatorie è di tipo gaussiano, tale è anche la densità di probabilità di

un qualunque sottoinsieme proprio di dette variabili.

Inoltre la matrice 𝛴 e il vettore 𝒎 che caratterizzano la densità

di probabilità congiunta associata a detto sottoinsieme si ottengono

da quelli originari rispettivamente cancellando dalla prima le righe e

le colonne, e dal secondo le componenti, d’indice corrispondente alle

variabili che non sono contenute nel sottoinsieme di interesse.

Caratterizzazione degli elementi del vettore 𝒎 e 20.4 - della matrice 𝜮.

La conoscenza della funzione caratteristica del vettore 𝒀 defi-

nito nel - § 20.2 - consente di calcolare i momenti di qualsiasi ordine

(vedi CAPITOLO - 19) ed in particolare anche il valore medio di

una qualunque componente di detto vettore. Risulta infatti:

𝜕𝐹𝑋(𝒖)

𝜕𝑢𝑖=𝜕 ∫ 𝑝𝑿(𝑥1, 𝑥2, … , 𝑥𝑛)𝑒

𝑗𝒖𝑇𝒙𝑑𝒙ℝ𝑛

𝜕𝑢𝑖

= ∫ 𝑗𝑥𝑖𝑝𝑋(𝑥1, 𝑥2, … , 𝑥𝑛)𝑒𝑗𝒖𝑇𝒙𝑑𝒙

ℝ𝑛

(20.4.1)

che valutata in 𝒖 = 𝒐 fornisce:

𝜕𝐹𝑋(𝒖)

𝜕𝑢𝑖|𝒖=𝒐

= ∫ 𝑗𝑥𝑖𝑝𝑿(𝑥1, 𝑥2, … , 𝑥𝑛)𝑑𝒙ℝ𝑛

= 𝑗𝑋�� (20.4.2)

Nel caso di variabili aleatorie congiuntamente gaussiane si ottiene:

Page 358: Lezioni di TEORIA DEI SEGNALI.pdf

346 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑌�� = −𝑗𝜕𝐹(𝒖)

𝜕𝑢𝑖|𝒖=𝒐

= 𝑗 (𝑒−1

2𝒖𝑇𝛴𝒖∑𝜎𝑖𝑘𝑢𝑘

𝑛

𝑘=1

)|

𝒖=𝒐

= 0 (20.4.3)

dove 𝜎𝑖𝑘 indica il generico elemento della matrice 𝛴.

Ricordando che 𝒀 = 𝑿 −𝒎 dalla precedente si deduce facil-

mente che le componenti del vettore 𝒎 sono i valori medi delle cor-

rispondenti componenti di 𝑿.

Al fine di caratterizzare gli elementi della matrice 𝛴 si osservi

che in generale risulta:

−𝜕2𝐹𝑿(𝒖)

𝜕𝑢𝑖𝜕𝑢𝑗|𝒖=𝒐

= 𝑋𝑖𝑋𝑗 (20.4.4)

quindi:

𝑌𝑖𝑌𝑗 = (𝑋𝑖 −𝑚𝑖)(𝑋𝑗 −𝑚𝑗) = −𝜕2𝐹𝑌(𝑢)

𝜕𝑢𝑖𝜕𝑢𝑗|𝒖=𝒐

= −𝑒−1

2𝑢𝑇𝛴𝑢∑𝜎𝑗𝑘𝑢𝑘

𝑛

𝑘=1

∑𝜎𝑖𝑘𝑢𝑘

𝑛

𝑘=1

− 𝑒−1

2𝑢𝑇𝛴𝑢𝜎𝑖𝑗|

𝒖=𝒐

= 𝜎𝑖𝑗 (20.4.5)

La precedente mostra che il generico elemento 𝜎𝑖𝑗 della matri-

ce 𝛴 è la covarianza delle variabili aleatorie 𝑋𝑖 ed 𝑋𝑗. La matrice 𝛴

viene pertanto detta matrice di covarianza. Gli elementi che giacciono

sulla diagonale della matrice di covarianza rappresentano le varianze

delle variabili aleatorie cui 𝛴 è associata.

Segnali gaussiani. 20.5 -

Un segnale aleatorio 𝑠(𝑡, 휁) si dice normale o gaussiano se la sua

densità di probabilità di qualunque ordine 𝑛, indipendentemente dal-

la scelta della 𝑛 -upla d’istanti 𝒕 = [𝑡1, 𝑡2, … , 𝑡𝑛], è di tipo gaussiano,

cioé se risulta:

𝑝𝑠(𝑡1),…,𝑠(𝑡𝑛)(𝑥) =

1

√(2𝜋)𝑛|𝛴|𝑒−

1

2(𝒙−𝒎(𝒕))

𝑇𝛴−1(𝒙−𝒎(𝒕));

∀𝑛 ∈ ℕ⋀ ∀ 𝒕 ∈ ℝ𝑛 (20.5.1)

dove 𝒎(𝒕) = [𝑠(𝑡1) , 𝑠(𝑡2) , … , 𝑠(𝑡𝑛) ]𝑇 è un vettore la cui 𝑖-esima

componente è il valore medio del segnale valutato nell'istante 𝑡𝑖, e il

generico elemento della matrice 𝛴

𝜎𝑖𝑗 = 𝜎(𝑡𝑖 , 𝑡𝑗) = (𝑠(𝑡𝑖) − 𝑠(𝑡𝑖) )(𝑠(𝑡𝑗) − 𝑠(𝑡𝑗) ) (20.5.2)

Page 359: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 20 – Segnali Gaussiani - 347

esprime la covarianza delle variabili aleatorie individuate dal segnale

agli istanti 𝑡𝑖 e 𝑡𝑗.

Ci si rende facilmente conto del fatto che un segnale gaussia-

no stazionario in senso lato lo è anche in senso stretto. Infatti, se il

segnale è stazionario in senso lato, gli elementi della sua matrice di

covarianza, a qualunque ordine, dipendono soltanto dalle differenze

tra gli istanti di tempo 𝑡𝑖 e 𝑡𝑗. Inoltre il valore medio del segnale é in-

dipendente dal tempo, quindi tale è anche il vettore 𝒎 che compare

nella sua densità di probabilità.

Esempio 20.1

Si determini la densità di probabilità del terzo ordine di un segnale

gaussiano a media nulla valutata negli istanti 𝑡1 = 0, 𝑡2 = 𝑇 e 𝑡3 = 2𝑇.

sapendo la sua funzione di autocovarianza vale:

𝜎(𝜏) = exp (−|𝜏|

𝑇)

L’elemento generico della matrice di autocovarianza vale:

𝜎𝑖𝑗 = exp(−|𝑡𝑖 − 𝑡𝑗|

𝑇)

pertanto la matrice di covarianza valutata negli istanti di interesse risulta:

𝛴 = [1 𝑒−1 𝑒−2

𝑒−1 1 𝑒−1

𝑒−2 𝑒−1 1

]

la cui inversa vale:

𝛴−1 =1

1 − 𝑒−2[1 −𝑒−1 0

−𝑒−1 1 + 𝑒−2 −𝑒−1

0 −𝑒−1 1

]

La forma quadratica che definisce la 𝑝𝑠(0)𝑠(𝑇)𝑠(2𝑇)(𝑥1, 𝑥2, 𝑥3) è:

𝑄(𝑥1, 𝑥2, 𝑥3) =1

1 − 𝑒−2[𝑥12 + (1 + 𝑒−2)𝑥2

2 + 𝑥32 − 2𝑒−1𝑥1𝑥2 − 2𝑒

−1𝑥2𝑥3]

Essendo inoltre:

|𝛴| = (1 − 𝑒−2)2

la densità di probabilità cercata si scrive quindi:

𝑝𝑠(0)𝑠(𝑇)𝑠(2𝑇)(𝑥1, 𝑥2, 𝑥3) =1

(2𝜋)3

2(1 − 𝑒−2)𝑒−𝑥12+(1+𝑒−2)𝑥2

2+𝑥32−2𝑒−1𝑥1𝑥2−2𝑒

−1𝑥2𝑥3

2(1−𝑒−2)

Distribuzioni singolari. 20.6 -

Sia data la funzione definita in ℝ𝑛:

Page 360: Lezioni di TEORIA DEI SEGNALI.pdf

348 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝐹(𝒖) = 𝑒−1

2𝒖𝑇𝛴𝒖

(20.6.1)

dove 𝛴 è una matrice semidefinita positiva. La (20.6.1), se la matrice

𝛴 è definita positiva, si può interpretare come la funzione caratteri-

stica associata ad un opportuno vettore costituito da 𝑛 variabili alea-

torie congiuntamente gaussiane a media nulla.

Si vuole indagare su come interpretare la (20.6.1) qualora la

matrice 𝛴 sia semidefinita positiva senza essere definita positiva. Cioè

quando si verifichi il caso che la suddetta matrice presenti degli auto-

valori nulli. In particolare si vuole stabilire se alla (20.6.1) possa an-

cora attribuirsi il significato di funzione caratteristica associata ad un

opportuno vettore 𝑋 di variabili aleatorie e, in caso affermativo, qua-

le sia la densità di probabilità congiunta di dette variabili.

A tal fine si proceda ad antitrasformare la (20.6.1) sulla base

della (16.4.12):

𝑓(𝒙) =1

(2𝜋)𝑛∫ 𝑒−

1

2𝒖𝑇𝛴𝒖

ℝ𝑛𝑒−𝑗𝒖

𝑇𝒙𝑑𝒖 (20.6.2)

Sia 𝑇 una opportuna matrice ortonormale (certamente esisten-

te) che diagonalizza la matrice 𝛴 e che, inoltre, faccia si che gli auto-

valori non nulli della 𝛴 cadano nelle prime 𝑟 righe della matrice dia-

gonalizzata, cioè 𝑇 sia tale che risulti

𝑇𝑇𝛴𝑇 = 𝛬 =

[ 𝜆1 0 …………………00 𝜆2…………………0…………………………0…… ……𝜆𝑟 0……00… … … … . . .0. . . . .0… ………………………0…… .… . . . . . . . . . . . . . .0]

(20.6.3)

dove 𝜆𝑖 è il generico autovalore non nullo della 𝛴.

Operando al secondo membro della (20.6.2) la trasformazione

di variabili 𝒗 = 𝑇𝑇𝒖 si ottiene:

𝑓(𝑥) =1

(2𝜋)𝑛∫ 𝑒−

1

2𝒗𝑇𝛬𝒗

ℝ𝑛𝑒−𝑗𝒗

𝑇𝑇𝑇𝒙𝑑𝒗 (20.6.4)

Si osservi che 𝒗𝑇𝛬𝒗, in virtù della particolare composizione

della matrice 𝛬, dipende solo dalle prime 𝑟 componenti del vettore 𝒗.

Mediante le posizioni:

Page 361: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 20 – Segnali Gaussiani - 349

𝒗 = [𝒗𝑟𝒗𝑛−𝑟

] =

[ [

𝑣1⋮𝑣𝑟]

[

𝑣𝑟+1⋮𝑣𝑛

]]

; 𝛬 = [𝛬𝑟 00 0

] ; 𝑇 = [𝑇𝑟 𝑇𝑛−𝑟] (20.6.5)

l'integrale (20.6.4) può essere espresso come prodotto di due integra-

li. Più precisamente si può scrivere:

1

(2𝜋)𝑛∫ 𝑒−

1

2𝑣𝑇𝛬𝒗𝑒−𝑗𝒗

𝑇𝑇𝑇𝒙𝑑𝒗ℝ𝑛

= (1

(2𝜋)𝑟∫ 𝑒−

1

2𝒗𝑟𝑇𝛬𝑟𝒗𝑒−𝑗𝒗𝑟

𝑇𝑇𝑟𝑇𝒙𝑑𝒗𝑟

ℝ𝑟)

⋅ (1

(2𝜋)𝑛−𝑟∫ 𝑒−𝑗𝑣𝑛−𝑟

𝑇 𝑇𝑛−𝑟𝑇 𝒙

ℝ𝑛−𝑟𝑑𝒗𝑛−𝑟)

(20.6.6)

da cui facilmente si ottiene:

𝑓(𝒙) =1

√(2𝜋)𝑟|𝛬𝑟|𝑒−

1

2𝑥𝑇𝑇𝑟𝛬𝑟

−1𝑇𝑟𝑇𝒙∏𝛿((𝑇𝑛−𝑟

𝑇 𝒙)𝑘)

𝑛−𝑟

𝑘=1

(20.6.7)

dove (𝑇𝑛−𝑟𝑇 𝒙)𝑘 indica la 𝑘-esima componente del vettore 𝑇𝑛−𝑟

𝑇 𝒙.

𝑓(𝒙) è non negativa e rispetta la condizione di normalizzazio-

ne, in quanto la (20.6.1) vale uno per 𝒖 = 𝒐, quindi la precedente

implica che è leggitimo porre:

𝑓(𝒙) = 𝑝𝑿(𝒙) (20.6.8)

cioè che è possibile interpretare 𝑓(𝒙) come la funzione di densità di

probabilità congiunta 𝑝𝑿(𝒙) associata a un opportuno 𝑛-vettore 𝑿 di

variabili aleatorie.

E’ interessante rilevare che la presenza delle delta nella (20.6.7)

porta a concludere che la 𝑝𝑿(𝒙) è nulla ovunque, fatta eccezione che

in corrispondenza alle soluzioni del sistema lineare di equazioni:

𝑇𝑛−𝑟𝑇 𝒙 = 𝒐 (20.6.9)

In altri termini, quanto detto significa che il vettore 𝑿 appartiene con

probabilità 1 al sottospazio di ℝ𝑛 implicitamente definito dalle

(20.6.9). Detto sottospazio, in virtù dell'ortogonalità della matrice 𝑇,

ha certamente dimensione 𝑟. Inoltre ci si rende facilmente conto del

fatto che se il vettore 𝑿 viene riferito a una qualsiasi base di detto

Page 362: Lezioni di TEORIA DEI SEGNALI.pdf

350 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

sottospazio le variabili aleatorie componenti di 𝑿 rispetto a detta ba-

se sarebbero congiuntamente gaussiane.

Esempio 20.2

Si determini la densità di probabilità del terzo ordine di un segnale

gaussiano a media nulla e la cui funzione di autocovarianza è:

𝜎(𝜏) = cos (2𝜋𝜏

𝑇)

valutata negli istanti 𝑡1 = 0, 𝑡2 = 𝑇/4 e 𝑡3 = 𝑇/2.

La matrice di covarianza vale:

𝛴 = [1 0 −10 1 0−1 0 1

]

Essa è singolare ed ha rango 2.

Per determinare la varietà lineare sulla quale la ps 1 s 2 s 3

(x1, x

2,x

3) ri-

sulta diversa da zero occorre individuare una matrice 𝑇 che diagonalizza

la . Detta matrice ha per righe gli autoversori di .

L’equazione che fornisce gli autovalori come è noto è:

|𝛴 − 𝜆𝐼| ≡ 𝜆(𝜆 − 1)(𝜆 − 2) = 0

le cui soluzioni sono:

𝜆1 = 0, 𝜆2 = 1, 𝜆3 = 2;

I corrispondenti autovettori normalizzati sono:

𝒆1 =1

√2[101] , 𝒆2 = [

010] , 𝒆3 =

1

√2[10−1]

scegliendo come matrice T:

𝑇 =

[ −

1

√20

1

√20 1 01

√20

1

√2]

Risulta:

𝑇𝑇𝛴𝑇 = [2 0 00 1 00 0 0

]

La varietà lineare su cui la ps 1 s 2 s 3

(x1, x

2,x

3) risulta diversa da zero è

allora definita dalla:

Page 363: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 20 – Segnali Gaussiani - 351

𝑇𝑛−𝑟𝑇 𝒙 = 𝒐;

[ 1

√201

√2] 𝑇

𝒙 = 𝒐; 𝒙1 + 𝒙3 = 𝒐

nel caso in esame la matrice Tr è data dalle prime due colonne di T,

𝛬𝑟−1 = [

1

20

0 1

]

si ha:

𝑥𝑇𝑇𝑟𝛬𝑟−1𝑇𝑟

𝑇𝒙 = 𝒙𝑇

[ 1

40 −

1

40 1 0

−1

40

1

4 ]

𝒙 =𝑥12

4+ 𝑥2

2 −𝑥1𝑥32

+𝑥32

4

=(𝑥1 + 𝑥3)

2

4+ 𝑥2

2

la ps 1 s 2 s 3

quindi in base alla (20.6.7) è data da:

𝑝𝑠1𝑠2𝑠3(𝑥) =1

4𝜋𝑒[(𝑥1−𝑥3)

2

4+𝑥2

2]𝛿(𝑥1 + 𝑥3) =

1

4𝜋𝑒(𝑥1

2+𝑥22)𝛿(𝑥1 + 𝑥3)

Densità di probabilità del secondo ordine e con-20.7 - dizionali.

Nel caso di un vettore aleatorio 𝑿 gaussiano bidimensionale

denotando con

𝜎11 = (𝑋1 −𝑚1)2 = 𝜎1

2;

𝜎22 = (𝑋2 −𝑚2)2 = 𝜎2

2;

𝜎12 = 𝜎21 = (𝑋1 −𝑚1)(𝑋2 −𝑚2)

(20.7.1)

gli elementi della matrice di covarianza, si puo scrivere:

𝛴−1 =1

𝜎12𝜎2

2 − 𝜎12𝜎21[𝜎22 −𝜎12

−𝜎21 𝜎12 ] (20.7.2)

Di conseguenza la densità di probabilità vale:

𝑝𝑿(𝒙) =𝑒−𝜎22(𝑥1−𝑚1)

2−(𝜎12+𝜎21)(𝑥1−𝑚1)(𝑥2−𝑚2)+𝜎12(𝑥2−𝑚2)

2

2(𝜎12𝜎22−𝜎12𝜎21)

2𝜋√𝜎12𝜎2

2 − 𝜎12𝜎21 (20.7.3)

Di norma la precedente si esprime in termini del coefficiente

di correlazione:

Page 364: Lezioni di TEORIA DEI SEGNALI.pdf

352 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝜌 =𝜎12𝜎1𝜎2

=𝜎21𝜎1𝜎2

(20.7.4)

che, in virtù della definitezza positiva della 𝛴, soddisfa la limitazione

|𝜌| ≤ 1.

Risulta allora:

𝑝𝑠1𝑠2(𝑥1, 𝑥2)

=𝑒−

1

2(1−𝜌2)[(𝑥1−𝑚1)

2

𝜎12 −

2𝜌

𝜎1𝜎2(𝑥1−𝑚1)(𝑥2−𝑚2)+

(𝑥2−𝑚2)2

𝜎22 ]

2𝜋𝜎1𝜎2√1 − 𝜌2

(20.7.5)

Nel piano (𝑥1, 𝑥2) i luoghi a 𝑝𝑠1𝑠2 = cost sono rappresentati da

una famiglia d’ellissi (|𝜌| ≤ 1) concentriche di centro (𝑚1, 𝑚2) di

equazioni:

(𝑥1 −𝑚1)2

𝜎12 −

2𝜌

𝜎1𝜎2(𝑥1 −𝑚1)(𝑥2 −𝑚2) +

(𝑥2 −𝑚2)2

𝜎22

= cost (20.7.6)

Le densità di probabilità marginali 𝑝𝑠1(𝑥1) e 𝑝𝑠2(𝑥2) valgono

rispettivamente:

𝑝𝑠1(𝑥1) =1

√2𝜋𝜎12𝑒−(𝑥1−𝑚1)

2

2𝜎12

;

𝑝𝑠2(𝑥2) =1

√2𝜋𝜎22𝑒−(𝑠2−𝑚2)

2

2𝜎22;

(20.7.7)

come si deduce facilmente applicando le regole di marginalizzazione

dedotte precedentemente in questo Capitolo

È interessante notare che se 𝜌 = 0, la matrice di covarianza è

diagonale, in questo caso evidentemente risulta:

𝑝𝑠1𝑠2(𝑥1, 𝑥2) = 𝑝𝑠1(𝑥1)𝑝𝑠2(𝑥2) (20.7.8)

Ciò significa che se risulta 𝜌(𝑡1, 𝑡2) = 0, le variabili aleatorie 𝑠1 =

𝑠(𝑡1) e 𝑠2 = 𝑠(𝑡2), estratte da un segnale gaussiano, sono statistica-

mente indipendenti.

Dalle relazioni:

𝑝𝑠1𝑠2(𝑥1, 𝑥2) = 𝑝𝑠1(𝑥1)𝑝𝑠2|𝑠2(𝑥2, 𝑥1)

= 𝑝𝑠2(𝑥2)𝑝𝑠1|𝑠2(𝑥1, 𝑥2) (20.7.9)

si possono dedurre le densità di probabilità condizionate:

Page 365: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 20 – Segnali Gaussiani - 353

𝑝𝑠1|𝑠2(𝑥1, 𝑥2) =𝑒−

1

2𝜎12(1−𝜌2)

[𝑥1−𝑚1−𝜌𝜎1𝜎2

(𝑥2−𝑚2)]2

𝜎1√2𝜋(1 − 𝜌2)

(20.7.10)

e

𝑝𝑠2|𝑠1(𝑥2, 𝑥1) =𝑒−

1

2𝜎22(1−𝜌2)

[𝑥2−𝑚2−𝜌𝜎2𝜎1

(𝑥1−𝑚1)]2

𝜎2√2𝜋(1 − 𝜌2)

(20.7.11)

che come si riconosce facilmente, sono due gaussiane rispettivamen-

te caratterizzate dai valori medi 𝑚1 +𝜌𝜎1

𝜎2(𝑠2 −𝑚2), 𝑚2 +

𝜌𝜎2

𝜎1(𝑠1 −

𝑚1) e dalle varianze 𝜎12(1 − 𝜌2), 𝜎2

2(1 − 𝜌2).

Trasformazioni lineari di segnali gaussiani. 20.8 -

Sia

𝑿 = [𝑋1 𝑋2 … 𝑋𝑛]𝑇 (20.8.1)

un vettore le cui componenti siano variabili aleatorie gaussiane, tali

cioè che la loro densità di probabilità congiunta sia espressa da una

relazione del tipo della (20.2.16). Se si applica al vettore 𝑿 una tra-

sformazione lineare del tipo:

𝒀 = 𝑇𝑿 (20.8.2)

essendo 𝑇 una matrice 𝑚 × 𝑛 è facile riconoscere che anche il vettore

aleatorio 𝒀 così ottenuto ha componenti congiuntamente gaussiane.

Infatti detta 𝐹𝒀(𝒖) la funzione caratteristica del vettore 𝒀 è

𝐹𝒀(𝒖) = 𝑒𝑗𝒖𝑇𝒚 = 𝑒𝑗𝒖

𝑇𝑇𝒙 = 𝑒𝑗(𝑇𝑇𝒖)𝑇𝒙 = 𝐹𝑿(𝑇

𝑇𝒖) (20.8.3)

Ricordando la (20.2.15) si verifica facilmente che la funzione

caratteristica associata ad un vettore di variabili gaussiane vale:

𝐹𝑿(𝒖) = 𝑒𝑗𝒖𝑇𝑿 = 𝑒𝑗𝒖

𝑇𝒎𝑿𝑒𝑗𝒖𝑇(𝑿−𝒎𝑿) = 𝑒𝑗𝒖

𝑇𝒎𝑿−1

2𝒖𝑇𝛴𝑿𝒖 (20.8.4)

avendo denotato con 𝒎𝑿 il vettore dei valori medi:

𝒎𝑿 = [𝑋1 𝑋2 … 𝑋𝑛 ]𝑇 (20.8.5)

e con 𝛴𝑿 la matrice di covarianza. Tenendo conto delle (20.8.2) e

(20.8.4) la (20.8.3) diviene:

𝐹𝒀(𝒖) = 𝐹𝑿(𝑇𝑇𝒖) = 𝑒𝑗𝒖

𝑇𝑇𝒎𝑿−1

2𝒖𝑇(𝑻𝛴𝑿𝑇

𝑇)𝒖 (20.8.6)

Page 366: Lezioni di TEORIA DEI SEGNALI.pdf

354 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

che confrontata con la (20.8.4) consente di concludere che il vettore

𝒀 ha componenti congiuntamente gaussiane caratterizzate da un vet-

tore di valori medi 𝒎𝒀 e da una matrice di autocovarianza 𝛴𝒀 dati ri-

spettivamente dalle:

a) 𝒎𝒀 = 𝑇𝒎𝑿

(20.8.7) b) 𝛴𝒀 = 𝑇𝛴𝑿𝑇

𝑇

Le considerazioni sin qui svolte possono essere estese al caso

di segnali aleatori legati da trasformazioni lineari del tipo:

𝑦(𝑡, 휁) = ∫ ℎ(𝑡, 𝜏)𝑥(𝜏, 휁)𝑑𝜏∞

−∞

(20.8.8)

dove ℎ(𝑡, 𝜏) denota la risposta della trasformazione ad una delta di

Dirac centrata all’istante 𝜏.

La (20.8.8) si potrebbe anche interpretare come una distribu-

zione definita su un opportuno spazio di funzioni di prova cui devo-

no appartenere le manifestazioni del segnale 𝑥(𝜏, 휁).

Anche in questo caso si può dimostrare che, se 𝑥(𝜏, 휁) è un

processo gaussiano, tale è anche 𝑦(𝑡, 휁). Limitandosi a fornirne una

giustificazione intuitiva , si consideri il caso in cui ℎ(𝑡, 𝜏) rappresenta

una funzione regolare.

Suddividendo il dominio d’integrazione nella (20.8.8) in inter-

valli disgiunti di ampiezza 𝛥, l'integrale può essere calcolato mediante

la:

𝑦(𝑡, 휁) = lim𝑁→∞𝛥→0

𝛥 ∑ ℎ(𝑡, 𝑖𝛥)𝑥(𝑖𝛥, 휁)

𝑁

𝑖=−𝑁

(20.8.9)

Valutando la precedente in 𝑡 = 𝑗𝛥 si ottiene:

𝑦(𝑗𝛥, 휁) = lim𝑁→∞𝛥→0

𝛥 ∑ ℎ(𝑗𝛥, 𝑖𝛥)𝑥(𝑖𝛥, 휁)

𝑁

𝑖=−𝑁

(20.8.10)

L'argomento del limite può essere interpretato, per fissati 𝑁 e

𝛥, come la componente 𝑗-esima ��𝑗 = ∑ ℎ(𝑗𝛥, 𝑖𝛥)𝑥(𝑖𝛥, 휁)𝑁

𝑖=−𝑁 di un

vettore aleatorio ottenuto dal prodotto tra una matrice 𝑇 il cui gene-

rico elemento è ℎ(𝑗𝛥, 𝑖𝛥) e un 2𝑁 + 1 vettore aleatorio gaussiano la

cui 𝑖-esima componente vale 𝑥(𝑖𝛥, 휁). ��𝑗 è pertanto, indipendente-

Page 367: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 20 – Segnali Gaussiani - 355

mente dai valori di 𝑁 e 𝛥, una variabile aleatoria gaussiana e tale resta

passando al limite per 𝑁 → ∞ e 𝛥 → 0.

Essendo 𝑦(𝑡, 휁) gaussiano, la sua densità di probabilità a qua-

lunque ordine dipende soltanto dal valor medio e dalla funzione di

autocovarianza.

Dalla (20.8.8), prendendo il valore medio statistico di ambo i

membri, si ha:

𝑚𝑦(𝑡) = 𝑦(𝑡, 휁) = ∫ ℎ(𝑡, 𝜏)𝑥(𝜏, 휁) 𝑑𝜏∞

−∞

= ∫ ℎ(𝑡, 𝜏)𝑚𝑥(𝜏)𝑑𝜏∞

−∞

(20.8.11)

dove con 𝑚𝑥(𝑡) si è indicato il valore medio del segnale 𝑥(𝑡, 휁).

La funzione di covarianza vale:

𝜎𝑦(𝑡1, 𝑡2) = (𝑦(𝑡1, 휁) − 𝑚𝑦(𝑡1))(𝑦(𝑡2, 휁) − 𝑚𝑦(𝑡2))

= 𝐸 {∫ 𝜑(𝑡1, 𝜏1)(𝑥(𝜏1, 휁) − 𝑚𝑥(𝜏1))𝑑𝜏1

−∞

∫ ℎ(𝑡2, 𝜏2)(𝑥(𝜏2, 휁)∞

−∞

−𝑚𝑥(𝜏2))𝑑𝜏2}

= ∫ ∫ 𝐸{[𝑥(𝜏1, 휁) − 𝑚𝑥(𝜏1)][𝑥(𝜏2, 휁)∞

−∞

−∞

−𝑚𝑥(𝜏2)]}ℎ(𝑡1, 𝜏1)𝜑(𝑡2, 𝜏2)𝑑𝜏1𝑑𝜏2

= ∫ ∫ 𝜎𝑥(𝜏1, 𝜏2)ℎ(𝑡1, 𝜏1)ℎ(𝑡2, 𝜏2)𝑑𝜏1𝑑𝜏2

−∞

−∞

(20.8.12)

avendo denotato con 𝜎𝑥(𝑡1, 𝑡2) la funzione di autocovarianza di

𝑥(𝑡, 휁).

Esempio 20.3

Si determini la densità di probabilità del secondo ordine del segnale

𝑦(𝑡, 휁) =1

𝑇∫ 𝑥(𝜏, 휁)𝑑𝜏𝑡+𝑇

𝑡

valutata negli istanti t1=0 e t

2=T essendo x( t , ) un segnale gaussiano,

stazionario, a valor medio nullo e funzione d’autocorrelazione t1=0

RX()=()

Se la media di x( t , ) è nulla lo è anche quella di y( t , ) .

La funzione d’autocorrelazione di y( t , ) vale

𝑅𝑦(𝑡1, 𝑡2) =1

𝑇2∫ ∫ 𝛿(𝜏2 − 𝜏1)𝑑𝜏1𝑑𝜏2

𝑡2+𝑇

𝑡2

𝑡1+𝑇

𝑡1

=1

𝑇2∫ ⊓ (

𝜏1 − 𝑡2𝑇

−1

2)𝑑𝜏1

𝑡1+𝑇

𝑡1

Page 368: Lezioni di TEORIA DEI SEGNALI.pdf

356 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

essendo, come è facile verificare:

∫ 𝛿(𝑥 − 𝑥0)𝑑𝑥𝛽

𝛼

= {1; 𝑥 ∈ [𝛼, 𝛽]

0; 𝑥 ∉ [𝛼, 𝛽]=⊓𝛽−𝛼 (

𝑥

𝛽 − 𝛼−1

2)

Si ha pertanto, ponendo t2 t

1:

𝜎𝑦(𝜏) = 𝑅𝑦(𝜏) =1

𝑇2∫ ⊓ (

𝜗

𝑇)𝑑𝜗

𝑇

2+𝜏

𝑇

2−𝜏

=1

𝑇(1 −

|𝜏|

𝑇)⊓ (

𝜏

𝑇)

La matrice di covarianza negli istanti d’interesse vale:

𝛴 = [

1

𝑇0

01

𝑇

]

la densità di probabilità richiesta vale quindi:

𝑝𝑦(0),𝑦(𝑇)(𝜆, 𝜈) =𝑇

2𝜋𝑒−

𝑇(𝜆2+𝜈2)

2

Statistica della somma di variabili aleatorie indi-20.9 - pendenti.

Sia {𝑋𝑛} una sequenza di variabili aleatorie statisticamente in-

dipendenti. Si assuma per semplicità che la generica variabile 𝑋𝑖 della

sequenza abbia valor medio nullo e si indichi la sua varianza con 𝜎𝑖2.

Ci si propone di determinare la densità di probabilità della va-

riabile aleatoria 𝑊 definita come segue:

𝑊 = lim𝑛→∞

∑ 𝑋𝑖𝑛𝑖=1

𝛤𝑛= lim

𝑛→∞∑

𝑋𝑖𝛤𝑛

𝑛

𝑖=1= lim

𝑛→∞𝑊𝑛 (20.9.1)

dove:

𝛤𝑛 = √∑ 𝜎𝑖2

𝑛

𝑖=1 (20.9.2)

sotto l'ipotesi che risulti:

lim𝑛→∞

𝛹𝑛𝛤𝑛= 0 (20.9.3)

dove

𝛹𝑛 = √∑|𝑋𝑖3|

𝑛

𝑖=1

3

(20.9.4)

Page 369: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 20 – Segnali Gaussiani - 357

Sia 𝐹𝑖(𝑢) la funzione caratteristica della variabile aleatoria 𝑋𝑖 la

funzione caratteristica 𝐹𝑊𝑛(𝑢) della variabile aleatoria 𝑊𝑛, definita

dalla (20.9.1), in virtù della supposta statistica indipendenza delle 𝑋𝑖,

vale:

𝐹𝑊𝑛(𝑢) =∏𝐹𝑖 (𝑢

𝛤𝑛)

𝑛

𝑖=1

⇒ log[𝐹𝑊𝑛(𝑢)] = ∑log(𝐹𝑖 (𝑢

𝛤𝑛))

𝑛

𝑖=1

(20.9.5)

D’altra parte può scriversi:

𝐹𝑖 (𝑢

𝛤𝑛) = 𝑒

𝑗𝑢

𝛤𝑛𝑋𝑖

= 1 + 𝑗𝑋𝑖𝑢

𝛤𝑛−𝑋𝑖2

2(𝑢

𝛤𝑛)2

− 𝑗𝑒𝑗𝜉

𝛤𝑛𝑋𝑖 𝑋𝑖

3

6(𝑢

𝛤𝑛)3

= 1 −𝜎𝑖2𝑢2

2𝛤𝑛2+−𝑗𝑒

𝑗𝜉

𝛤𝑛𝑋𝑖𝑋𝑖

3

𝑢3

6𝛤𝑛3

(20.9.6)

dove 𝜉 è un opportuno reale che dipende da 𝑢 e da 𝑋𝑖.

Si consideri adesso il logaritmo naturale della 𝐹𝑖 (𝑢

𝛤𝑛):

log (𝐹𝑖 (

𝑢

𝛤𝑛)) = log(1 −

𝜎𝑖2𝑢2

2𝛤𝑛2+−𝑗𝑒

𝑗𝜉

𝛤𝑛𝑋𝑖𝑋𝑖

3

𝑢3

6𝛤𝑛3

)

= log[1 + 𝑧]

(20.9.7)

avendo posto:

𝑧 = −𝜎𝑖2𝑢2

2𝛤𝑛2+−𝑗𝑒

𝑗𝜉

𝛤𝑛𝑋𝑖𝑋𝑖

3

𝑢3

6𝛤𝑛3

(20.9.8)

In virtù della (20.9.3) si può affermare che esiste 𝜈 tale che:

𝑛 > 𝜈 ⇒𝛹𝑛𝛤𝑛< 1 (20.9.9)

inoltre si può dimostrare (vedi Esempio 16.2) che se una variabile

aleatoria ammette momento assoluto del terzo ordine vale la disu-

guaglianza:

√|𝑋2| 2≤ √|𝑋3| 3

(20.9.10)

Ciò premesso vale la catena di disuguaglianze:

Page 370: Lezioni di TEORIA DEI SEGNALI.pdf

358 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

|𝑧| = |−𝜎𝑖2𝑢2

2𝛤𝑛2+−𝑗𝑒

𝑗𝜉

𝛤𝑛𝑋𝑖𝑋𝑖

3

𝑢3

6𝛤𝑛3

| ≤𝜎𝑖2𝑢2

2𝛤𝑛2+ |𝑒𝑗𝜉

𝛤𝑛𝑋𝑖𝑋𝑖

3

𝑢3

6𝛤𝑛3

|

≤𝜎𝑖2𝑢2

2𝛤𝑛2+|𝑋𝑖

3| |𝑢3|

6𝛤𝑛3

=|𝑋𝑖

3| 2

3

𝛤𝑛2(𝜎𝑖2𝑢2

2|𝑋𝑖3| 2

3

+|𝑋𝑖

3| 1

3|𝑢3|

6𝛤𝑛)

≤𝛹𝑛2

𝛤𝑛2(𝜎𝑖2𝑢2

2|𝑋𝑖3| 2

3

+|𝑋𝑖

3| 1

3|𝑢3|

6𝛤𝑛) ≤

𝛹𝑛2

𝛤𝑛2(𝑢2

2+|𝑢3|

6)

(20.9.11)

Si osservi che al tendere di 𝑛 ad infinito, indipendentemente

dal valore di 𝑢, l'ultimo membro della precedente tende a zero; per 𝑛

sufficientemente grande è quindi legittimo scrivere:

log (𝐹𝑖 (𝑢

𝛤𝑛)) = log(1 −

𝜎𝑖2𝑢2

2𝛤𝑛2+−𝑗𝑒

𝑗𝜉

𝛤𝑛𝑋𝑖𝑋𝑖

3

𝑢3

6𝛤𝑛3

)

≅ −𝜎𝑖2𝑢2

2𝛤𝑛2+−𝑗𝑒

𝑗𝜉

𝛤𝑛𝑋𝑖𝑋𝑖

3

𝑢3

6𝛤𝑛3

(20.9.12)

quindi per la (20.9.5):

lim𝑛→∞

log(𝐹𝑊𝑛(𝑢)) ≅ lim𝑛→∞

∑(−𝜎𝑖2𝑢2

2𝛤𝑛2+−𝑗𝑒

𝑗𝜉

𝛤𝑛𝑋𝑖𝑋𝑖

3

𝑢3

6𝛤𝑛3

)

𝑛

𝑖=1

= −𝑢2

2+ lim

𝑛→∞∑

−𝑗𝑒𝑗𝜉

𝛤𝑛𝑋𝑖𝑋𝑖

3

𝑢3

6𝛤𝑛3

𝑛

𝑖=1

= −𝑢2

2

(20.9.13)

che corrisponde alla funzione caratteristica di una variabile gaussiana

a media nulla e varianza unitaria.

Page 371: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21

CARATTERIZZAZIONE ENERGETICA DI SEGNALI A

TEMPO CONTINUO

Funzione di autocorrelazione. 21.1 -

Sia 𝑠(𝑡, 휁), un segnale aleatorio, reale o complesso a tempo

continuo. La sua funzione di autocorrelazione 𝑅𝑠(𝑡1, 𝑡2) è definita

dalla seguente media statistica del secondo ordine:

𝑅𝑠(𝑡1, 𝑡2) = 𝑠∗(𝑡1)𝑠(𝑡2) (21.1.1)

Si osservi che, in un fissato istante di tempo, la parte reale e la

parte immaginaria di un segnale aleatorio complesso costituiscono

due variabili aleatorie definite su uno stesso esperimento casuale. Il

loro comportamento è quindi descritto dalla densità di probabilità

congiunta ad esse associata.

Analogo ragionamento conduce alla definizione delle densità

di probabilità d’ordine superiore di un segnale aleatorio complesso.

In particolare se 𝑠(𝑡, 휁) = 𝛼(𝑡, 휁) + 𝑗𝛽(𝑡, 휁), con 𝛼(𝑡, 휁) e 𝛽(𝑡, 휁) se-

gnali reali, la (21.1.1) si scrive:

𝑅𝑠(𝑡1, 𝑡2)

= ∫(𝑥1 − 𝑗𝑦1)(𝑥2 + 𝑗𝑦2)𝑝𝛼1𝛽1𝛼2𝛽2(𝑥1, 𝑦1, 𝑥2, 𝑦2)𝑑𝑥1𝑑𝑦1𝑑𝑥2𝑑𝑦2ℝ4

(21.1.2)

La funzione di autocorrelazione come si evince dalla (21.1.1)

è, in generale funzione delle due variabili 𝑡1 e 𝑡2. Se il segnale è sta-

zionario, almeno in senso lato, essa dipende in effetti dalla differenza

𝜏 = 𝑡2 − 𝑡1.

Per chiarire il significato da attribuire alla funzione di autocor-

relazione si prenda in considerazione, per semplicità, un segnale sta-

zionario reale. Sia 𝛥𝜏 la variazione che subisce la generica manifesta-

zione di 𝑠(𝑡, 휁) in un intervallo di ampiezza 𝜏:

𝛥𝜏 = 𝑠(𝑡 + 𝜏) − 𝑠(𝑡) (21.1.3)

Il suo valore quadratico medio vale:

Page 372: Lezioni di TEORIA DEI SEGNALI.pdf

360 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝛥𝜏2 = [𝑠(𝑡 + 𝜏) − 𝑠(𝑡)]2 = 2𝑠2(𝑡) − 2𝑠(𝑡)𝑠(𝑡 + 𝜏)

= 2(𝑅𝑠(0) − 𝑅𝑠(𝜏)) (21.1.4)

La quantità 𝛥𝜏2 è quindi tanto più piccola quanto meno 𝑅𝑠(𝜏) differi-

sce da 𝑅𝑠(0). Ciò, in altri termini, significa che tanto più lentamente

varia la funzione 𝑅𝑠(𝜏), tanto più elevata è la probabilità che sce-

gliendo a caso una manifestazione del processo questa presenti va-

riazioni lente al variare del tempo.

Inoltre è interessante notare che se per un certo valore di 𝜏0

avviene che 𝑅𝑠(𝜏0) = 𝑅𝑠(0) se ne deduce che [𝑠(𝑡) − 𝑠(𝑡 + 𝜏0)]2 = 0

il che significa che la generica manifestazione del segnale assume,

con probabilità uno, valori uguali in istanti di tempo che distano 𝜏0 o

suoi multipli interi.

Ponendo nella (21.1.1) 𝑡1 = 𝑡2 = 𝑡 si ottiene:

𝑅𝑠(𝑡, 𝑡) = |𝑠(𝑡)|2 ≥ 0 (21.1.5)

Nel punto (𝑡, 𝑡) la 𝑅𝑠(𝑡1, 𝑡2) s’identifica cioè con il secondo momen-

to assoluto del primo ordine del segnale 𝑠(𝑡, 휁), che è reale e non ne-

gativo. In particolare, per segnali reali l’autocorrelazione calcolata in

(𝑡, 𝑡) si riduce al valore quadratico medio del segnale in 𝑡.

Nel caso di segnali stazionari si ha:

𝑅𝑠(0) = 𝑠(𝑡)𝑠∗(𝑡) = |𝑠(𝑡)|2 ≥ 0 (21.1.6)

inoltre:

𝑅𝑠(𝑡2, 𝑡1) = 𝑠∗(𝑡2)𝑠(𝑡1) = (𝑠∗(𝑡1)𝑠(𝑡2) )

∗= 𝑅𝑠

∗(𝑡1, 𝑡2) (21.1.7)

che, nel caso di segnali stazionari almeno in senso lato, si semplifica

nella:

𝑅𝑠(−𝜏) = 𝑅𝑠∗(𝜏) (21.1.8)

Se il segnale, oltre che stazionario, è anche reale risulta:

𝑅𝑠(−𝜏) = 𝑅𝑠(𝜏) (21.1.9)

la 𝑅𝑠(𝜏) in questo caso è quindi una funzione reale pari del suo argo-

mento.

L’autocorrelazione è una funzione semidefinita positiva. Ciò

significa che per ogni 𝜙(𝑡) a quadrato sommabile deve aversi:

∬ 𝜙(𝑥)𝑅𝑠(𝑥, 𝑦)𝜙∗(𝑦)𝑑𝑥𝑑𝑦

ℝ2≥ 0 (21.1.10)

Page 373: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 361

Per dimostrarlo è sufficiente prendere in considerazione la va-

riabile aleatoria 𝑠𝜙 così definita:

𝑆𝜙(휁) = ∫ 𝜙(𝑡)𝑠∗(𝑡, 휁)𝑑𝑡∞

−∞

(21.1.11)

Il cui primo momento assoluto del secondo ordine vale:

|𝑆𝜙|2 = |∫ 𝜙(𝑡)𝑠∗(𝑡)𝑑𝑡

−∞

|2

= (∫ 𝜙(𝑥)𝑠∗(𝑥)𝑑𝑥∞

−∞

) (∫ 𝜙(𝑦)𝑠 ∗ (𝑦)𝑑𝑦∞

−∞

)

= ∬ 𝜙(𝑥)𝑠∗(𝑥)𝑠(𝑦) 𝜙∗(𝑦)𝑑𝑥𝑑𝑦ℝ2

=∬ 𝜙(𝑥)𝑅𝑠(𝑥, 𝑦)𝜙∗(𝑦)𝑑𝑥𝑑𝑦

ℝ2≥ 0

(21.1.12)

Inoltre, interpretando la (21.1.11) come una distribuzione, po-

nendo:

𝜙(𝑡) = 𝜆𝛿(𝑡 − 𝑡1) + 𝜇𝛿(𝑡 − 𝑡2) (21.1.13)

con 𝜆 e 𝜇 complessi arbitrari, dalla (21.1.12), si ottiene:

0

≤∬ (𝜆𝛿(𝑥 − 𝑡1) + 𝜇𝛿(𝑥 − 𝑡2))𝑅𝑠(𝑦, 𝑥)(𝜆∗𝛿(𝑦 − 𝑡1)

ℝ2

+ 𝜇∗𝛿(𝑦 − 𝑡2))𝑑𝑥𝑑𝑦= |𝜆|2𝑅𝑠(𝑡1, 𝑡1) + 𝜆𝜇

∗𝑅𝑠(𝑡2, 𝑡1) + 𝜆∗𝜇𝑅𝑠(𝑡1, 𝑡2)

+ |𝜇|2𝑅𝑠(𝑡2, 𝑡2)

(21.1.14)

L’ultimo membro della precedente è pertanto una forma quadratica

semidefinita positiva nelle variabili 𝜆 e 𝜇, il determinante ad essa as-

sociato è quindi non negativo. Vale pertanto la disuguaglianza:

0 ≤ 𝑅𝑠(𝑡1, 𝑡1)𝑅𝑠(𝑡2, 𝑡2) − 𝑅𝑠(𝑡1, 𝑡2)𝑅𝑠(𝑡2, 𝑡1) (21.1.15)

dalla quale, tenendo conto della (21.1.7) si deduce:

|𝑅𝑠(𝑡1, 𝑡2)| ≤ √𝑅𝑠(𝑡1, 𝑡1)√𝑅𝑠(𝑡2, 𝑡2) (21.1.16)

che, se il segnale è stazionario assume la forma:

|𝑅𝑠(𝜏)| ≤ 𝑅𝑠(0) (21.1.17)

Dalla (21.1.8) e (21.1.6) si evince che la funzione di autocorre-

lazione di un segnale stazionario almeno in senso lato gode di sim-

Page 374: Lezioni di TEORIA DEI SEGNALI.pdf

362 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

metria hermitiana e che il suo modulo presenta all'origine un massi-

mo assoluto.

Le proprietà della funzione di autocorrelazione sono riassunte

nella Tabella 21.1

Tabella 21.1

Proprietà della funzione di autocorrelazione per segnali a tempo continuo

Segnali stazionari in senso lato Segnali non stazionari

𝑅𝑠(𝜏) = 𝑠 ∗ (𝑡)𝑠(𝑡 + 𝜏) 𝑅𝑠(𝑡1, 𝑡2) = 𝑠 ∗ (𝑡1)𝑠(𝑡2)

𝑅𝑠(0) = |𝑠(𝑡)|2 𝑅𝑠(𝑡, 𝑡) = |𝑠(𝑡)|2

𝑅𝑠(−𝜏) = 𝑅𝑠∗(𝜏) 𝑅𝑠(𝑡1, 𝑡2) = 𝑅𝑠

∗(𝑡2, 𝑡1)

|𝑅𝑠(𝜏)| ≤ 𝑅𝑠(0) |𝑅𝑠(𝑡1, 𝑡2)| ≤ √𝑅𝑠(𝑡1, 𝑡1)√𝑅𝑠(𝑡2, 𝑡2)

∬ 𝜙(𝑥)𝑅𝑠(𝑦 − 𝑥)𝜙 ∗ (𝑦)𝑑𝑥𝑑𝑦ℝ2

≥ 0 ∬ 𝜙(𝑥)𝑅𝑠(𝑥, 𝑦)𝜙 ∗ (𝑦)𝑑𝑥𝑑𝑦ℝ2

≥ 0

Al posto dell’autocorrelazione è utile, in certi casi, introdurre

altre funzioni che ad essa sono sostanzialmente equivalenti, e che si

ottengono per normalizzazione o centratura. Si possono a tale scopo

definire:

la funzione di autocorrelazione normalizzata

𝑟𝑠(𝑡1, 𝑡2) =𝑅𝑠(𝑡1, 𝑡2)

√𝑅𝑠(𝑡1, 𝑡1)√𝑅𝑠(𝑡2, 𝑡2)

(21.1.18)

la funzione di autocovarianza

𝜎𝑠(𝑡1, 𝑡2) = [𝑠(𝑡1) − 𝑚𝑠(𝑡1)]

∗[𝑠(𝑡2) − 𝑚𝑠(𝑡2)]

= 𝑅𝑠(𝑡1, 𝑡2) − 𝑚𝑠∗(𝑡1)𝑚𝑠(𝑡2)

(21.1.19)

dove 𝑚𝑠(𝑡) denota il valore medio del segnale valutato all’istante 𝑡.

la funzione di autocovarianza normalizzata, o coefficiente di au-tocorrelazione

𝜌𝑠(𝑡1, 𝑡2) =𝜎𝑠(𝑡1, 𝑡2)

√𝜎𝑠(𝑡1, 𝑡1)√𝜎𝑠(𝑡2, 𝑡2)

(21.1.20)

E' da notare che la condizione (21.1.16) comporta:

|𝑟𝑠(𝑡1, 𝑡2)| ≤ 1; |𝜎𝑠(𝑡1, 𝑡2)|

≤ √𝜎𝑠(𝑡1, 𝑡1)√𝜎𝑠(𝑡2, 𝑡2); |𝜌𝑠(𝑡1, 𝑡2)| ≤ 1 (21.1.21)

Nel caso di segnali stazionari, le (21.1.18), (21.1.19), (21.1.20)

assumono rispettivamente la forma:

𝑟𝑠(𝜏) =𝑅𝑠(𝜏)

𝑅𝑠(0) (21.1.22)

Page 375: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 363

𝜎𝑠(𝜏) = [𝑠(𝑡) − 𝑚𝑠]∗[𝑠(𝑡 + 𝜏) − 𝑚𝑠] = 𝑅𝑠(𝜏) − |𝑚𝑠|

2 (21.1.23)

𝜌𝑠(𝜏) =𝜎𝑠(𝜏)

𝜎𝑠(0) (21.1.24)

e le (21.1.21) si semplificano come segue:

|𝑟𝑠(𝜏)| ≤ 1; |𝜎𝑠(𝜏)| ≤ 𝜎𝑠(0); |𝜌𝑠(𝜏)| ≤ 1 (21.1.25)

Densità spettrale di potenza. 21.2 -

Analogamente al caso dei segnali determinati, è utile caratte-

rizzare un segnale aleatorio nel dominio della frequenza. A tal fine è

opportuno associare, quando possibile, al segnale aleatorio la sua

densità spettrale di potenza.

Sia dato un processo aleatorio tale che quasi tutte le sue mani-

festazioni abbiano potenza specifica finita, cioè tale che l'insieme del-

le manifestazioni di potenza non limitata costituisca un evento di

probabilità nulla. È naturale associare ad un tale processo una densità

spettrale di potenza che sia la media statistica di quelle delle sue ma-

nifestazioni.

Più precisamente, sia 𝑠(𝑡, 휁) una generica manifestazione di un

segnale aleatorio, com’è noto dall'Analisi dei Segnali Determinati, la

densità spettrale di potenza 𝑤𝑠(𝑓, 휁) della manifestazione 𝑠(𝑡, 휁) è da-

ta da:

𝑤𝑠(𝑓, 휁) = lim𝑇→∞

|𝑆𝑇(𝑓, 휁)|2

𝑇= lim

𝑇→∞

𝑆𝑇(𝑓, 휁)𝑆𝑇∗(𝑓, 휁)

𝑇 (21.2.1)

dove 𝑆𝑇(𝑓, 휁) è la trasformata di Fourier del segnale troncato

𝑠𝑇(𝑡, 휁) = 𝑠(𝑡, 휁)⊓ (𝑡

𝑇) (21.2.2)

cioè:

𝑆𝑇(𝑓, 휁) = ∫ 𝑠𝑇(𝑡, 휁)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

−∞

= ∫ 𝑠(𝑡, 휁)𝑒−𝑗2𝜋𝑓𝑡𝑑𝑡

𝑇

2

−𝑇

2

(21.2.3)

La densità spettrale di potenza 𝑊𝑠(𝑓) di un segnale aleatorio si

ottiene effettuando la media statistica della quantità 𝑤𝑠(𝑓, 휁) cioè si

pone:

𝑊𝑠(𝑓) = 𝑤𝑠(𝑓, 휁) (21.2.4)

Page 376: Lezioni di TEORIA DEI SEGNALI.pdf

364 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Introducendo la (21.2.1) e la (21.2.3) nella (21.2.4) si ottiene:

𝑊𝑠(𝑓)

= lim𝑇→∞

1

𝑇∫ ∫ 𝑠 ∗ (𝑡1, 휁)𝑠(𝑡2, 휁)𝑒

−𝑗2𝜋𝑓(𝑡2−𝑡1)𝑑𝑡1𝑑𝑡2

𝑇

2

−𝑇

2

𝑇

2

−𝑇

2

= lim𝑇→∞

1

𝑇∫ ∫ 𝑠 ∗ (𝑡1, 휁)𝑠(𝑡2, 휁) 𝑒−𝑗2𝜋𝑓(𝑡2−𝑡1)𝑑𝑡1𝑑𝑡2

𝑇

2

−𝑇

2

𝑇

2

−𝑇

2

(21.2.5)

che, ricordando la definizione della funzione di autocorrelazione, si

può ancora scrivere:

𝑊𝑠(𝑓) = lim𝑇→∞

1

𝑇∫ ∫ 𝑅𝑠(𝑡1, 𝑡2)𝑒

−𝑗2𝜋𝑓(𝑡2−𝑡1)𝑑𝑡1𝑑𝑡2

𝑇

2

−𝑇

2

𝑇

2

−𝑇

2

(21.2.6)

L'antitrasformata della Ws ( f ) allora vale:

∫ 𝑊𝑠(𝑓)𝑒𝑗2𝜋𝑓𝜏𝑑𝑓

−∞

= lim𝑇→∞

1

𝑇∫ ∫ 𝑅𝑠(𝑡1, 𝑡2) (∫ 𝑒−𝑗2𝜋(𝑡2−𝑡1−𝜏)𝑓𝑑𝑓

−∞

)𝑑𝑡1𝑑𝑡2

𝑇

2

−𝑇

2

𝑇

2

−𝑇

2

(21.2.7)

poichè risulta:

∫ 𝑒𝑗2𝜋𝑓(𝑡2−𝑡1−𝜏)𝑑𝑓∞

−∞

= 𝛿(𝑡2 − 𝑡1 − 𝜏) (21.2.8)

la (21.2.7) fornisce ancora:

∫ 𝑊𝑠(𝑓)𝑒𝑗2𝜋𝑓𝜏𝑑𝑓

−∞

= lim𝑇→∞

1

𝑇∫ 𝑅𝑠(𝑡, 𝑡 + 𝜏)𝑑𝑡

𝑇

2

−𝑇

2

(21.2.9)

Se il segnale è stazionario, essendo

lim𝑇→∞

1

𝑇∫ 𝑅𝑠(𝑡, 𝑡 + 𝜏)𝑑𝑡

𝑇

2

−𝑇

2

= 𝑅𝑠(𝜏) (21.2.10)

si evince:

𝑊𝑠(𝑓) = ℱ[𝑅𝑠(𝜏)] (21.2.11)

È interessante notare che se la densità spettrale di potenza di

un segnale aleatorio stazionario è nulla le sue manifestazioni hanno,

con probabilità 1, energia finita. Un’ulteriore conseguenza dell'annul-

larsi della densità spettrale di potenza è, in virtù della (21.2.11) l'an-

Page 377: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 365

nullarsi della funzione di autocorrelazione. Se ne conclude che un se-

gnale aleatorio ad energia finita, fatta eccezione per il caso banale di

segnale nullo con probabilità 1 , non può essere stazionario.

Si osservi che se il segnale 𝑠(𝑡, 휁) è ergodico in autocorrelazio-

ne, si ha:

𝑅𝑠(𝜏) = 𝛾𝑠(𝜏) (21.2.12)

quindi risulta:

𝑊𝑠(𝑓) = ℱ[𝑅𝑠(𝜏)] = ℱ[𝛾𝑠(𝜏)] (21.2.13)

la 𝑊𝑠(𝑓) può cioè calcolarsi sulla base della funzione di autocorrela-

zione in media temporale di una qualsiasi manifestazione del segnale.

Se il segnale non è stazionario, se si pone:

𝜙𝑠(𝜏) = lim𝑇→∞

1

𝑇∫ 𝑅𝑠(𝑡, 𝑡 + 𝜏)𝑑𝑡

𝑇

2

−𝑇

2

(21.2.14)

la (21.2.9) fornisce:

𝑊𝑠(𝑓) = ℱ[𝜙𝑠(𝜏)] (21.2.15)

La densità spettrale di potenza di un segnale aleatorio si può, in altre

parole, calcolare eseguendo la trasformata di Fourier della media

temporale definita dalla (21.2.14).

È interessante notare che la simmetria hermitiana (21.1.7) di

cui gode l’autocorrelazione di un segnale, condizione che, come già

visto, è indipendente dalla natura reale o complessa del segnale, si

traduce per la 𝜙𝑠(𝜏) nella condizione 𝜙𝑠(𝜏) = 𝜙𝑠∗(−𝜏) che a sua volta

comporta che la 𝑊𝑠(𝑓) è una funzione reale del suo argomento. Se,

in particolare il segnale aleatorio è reale la 𝑊(𝑓) è anche una funzio-

ne pari.

Esempio 21.1

L’autocorrelazione della derivata s '( t , ) di un segnale è data dalla:

𝑅𝑠′(𝜏) = 𝑠′∗(𝑡)𝑠′(𝑡 + 𝜏)

Se il segnale è stazionario si ha:

𝑅𝑠′(𝜏) = limℎ→0

𝑠∗(𝑡 + ℎ) − 𝑠∗(𝑡)

ℎ⋅ limℎ→0

𝑠(𝑡 + 𝜏 + ℎ) − 𝑠(𝑡 + 𝜏)

= limℎ→0

𝑠∗(𝑡)𝑠(𝑡 + 𝜏 + ℎ) − 𝑠∗(𝑡 + ℎ)𝑠(𝑡 + 𝜏) − 𝑠∗(𝑡)𝑠(𝑡 + 𝜏 + ℎ) + 𝑠∗(𝑡)𝑠(𝑡 + 𝜏)

ℎ2

= limℎ→0

1

ℎ(𝑅𝑠(𝜏) − 𝑅𝑠(𝜏 − ℎ)

ℎ−𝑅𝑠(𝜏 + ℎ) − 𝑅𝑠(𝜏)

ℎ) = −

𝑑2𝑅𝑠(𝜏)

𝑑𝜏2

Page 378: Lezioni di TEORIA DEI SEGNALI.pdf

366 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

essendo Rs() la funzione di autocorrelazione del segnale s( t , ) .

La densità spettrale di potenza di s '( t , ) può essere espressa in ter-

mini della densità spettrale del segnale di potenza di s( t , ) ; si ha:

𝑊𝑠′(𝑓) = ℱ [−𝑑2𝑅𝑠(𝜏)

𝑑𝜏2] = 4𝜋2𝑓2𝑊𝑠(𝑓)

Caratterizzazione dei segnali nel dominio della 21.3 - frequenza.

Per fini che saranno chiari in seguito s’introduce una funzione

𝐺𝑠(𝑓1, 𝑓2) che esprime ammesso che esista, eventualmente anche nel

senso delle distribuzioni, la trasformata di Fourier bidimensionale

della funzione di autocorrelazione del segnale 𝑠(𝑡, 휁), e se ne elenca-

no le principali proprietà. Si pone:

𝐺𝑠(𝑓1, 𝑓2) = ∬ 𝑅𝑠(𝑡1, 𝑡2)𝑒−𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑡1𝑑𝑡2

ℝ2 (21.3.1)

Evidentemente risulta:

𝑅𝑠(𝑡1, 𝑡2) = ∬ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑓1𝑑𝑓2

ℝ2 (21.3.2)

La condizione di simmetria (21.1.7) comporta:

∬ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑓1𝑑𝑓2

ℝ2

= (∬ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋(𝑓2𝑡1+𝑓1𝑡2)𝑑𝑓1𝑑𝑓2

ℝ2)

=∬ 𝐺𝑠∗(𝑓1, 𝑓2)𝑒

−𝑗2𝜋(𝑓2𝑡1+𝑓1𝑡2)𝑑𝑓1𝑑𝑓2ℝ2

=∬ 𝐺𝑠∗(−𝑓2, −𝑓1)𝑒

𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑓1𝑑𝑓2ℝ2

(21.3.3)

da cui necessariamente discende:

𝐺𝑠(𝑓1, 𝑓2) = 𝐺𝑠∗(−𝑓2, −𝑓1) (21.3.4)

Ponendo nella (21.3.2) 𝑡1 = 𝑡2 = 𝑡 si ottiene:

𝑅𝑠(𝑡, 𝑡) = ∬ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋(𝑓1+𝑓2)𝑡𝑑𝑓1𝑑𝑓2

ℝ2 (21.3.5)

Introducendo la trasformazione di variabili:

{𝑓1 + 𝑓2 = 𝑓;𝑓2 = 𝜑;

(21.3.6)

Page 379: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 367

si può riscrivere:

𝑅𝑠(𝑡, 𝑡) = ∫ (∫ 𝐺𝑠(𝑓 − 𝜑, 𝜑)𝑑𝜑∞

−∞

) 𝑒𝑗2𝜋𝑓𝑡𝑑𝑓∞

−∞

(21.3.7)

Dunque nota 𝐺𝑠(𝑓1, 𝑓2), il momento assoluto del secondo ordine

𝑅𝑠(𝑡, 𝑡) si può ottenere effettuando l'antitrasformata monodimensio-

nale di Fourier della funzione:

𝑔𝑠(𝑓) = ∫ 𝐺𝑠(𝑓 − 𝜑, 𝜑)𝑑𝜑∞

−∞

(21.3.8)

Se in particolare il segnale è stazionario almeno in senso lato,

operando nella (21.3.1) la trasformazione di variabili 𝑡 = 𝑡1, 𝜏 = 𝑡2 −

𝑡1, si ha:

𝐺𝑠(𝑓1, 𝑓2) = ∬ 𝑅𝑠(𝑡2 − 𝑡1)𝑒−𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑡1𝑑𝑡2

ℝ2

=∬ 𝑅𝑠(𝜏)𝑒−𝑗2𝜋[𝑓1𝑡+𝑓2(𝑡+𝜏)]𝑑𝜏𝑑𝑡

ℝ2

= ∫ 𝑅𝑠(𝜏)𝑒−𝑗2𝜋𝑓2𝜏𝑑𝜏∫ 𝑒−𝑗2𝜋(𝑓1+𝑓2)𝑡𝑑𝑡

–∞

–∞

= 𝑊𝑠(𝑓2)𝛿(𝑓1 + 𝑓2)

(21.3.9)

Nella quale si è tenuto conto della (21.2.11) per dedurre l’ultimo

membro.

Pertanto la 𝐺𝑠(𝑓1, 𝑓2) di un segnale stazionario è nulla nel pia-

no (𝑂, 𝑓1, 𝑓2), eccezion fatta che sulla sua seconda bisettrice dove

presenta una singolarità di tipo delta di Dirac il cui peso è dato dalla

sua densità spettrale di potenza. Per un segnale stazionario quindi la

conoscenza della 𝑊𝑠(𝑓) comporta tramite la (21.3.9) quella della

𝐺𝑠(𝑓1, 𝑓2).

La (21.3.7) particolarizzata al caso di segnali stazionari almeno

in senso lato diventa:

𝑅𝑠(0) = |𝑠(𝑡, 휁)|2 = ∬ 𝑊𝑠(𝜑)𝛿(𝑓)𝑒

𝑗2𝜋𝑓𝑡𝑑𝜑𝑑𝑓ℝ2

= ∫ 𝑊𝑠(𝜑)𝑑𝜑∞

−∞

(21.3.10)

la quale sta a significare che il momento assoluto del secondo ordine

di un segnale stazionario in senso lato, che per segnali reali coincide

con il valore quadratico medio, può essere calcolato integrando su

tutto l'asse reale la densità spettrale di potenza.

Page 380: Lezioni di TEORIA DEI SEGNALI.pdf

368 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

Se nella (21.1.10) che esprime la semidefinitezza positiva della

funzione di autocorrelazione si sostituisce la (21.3.2) si ottiene:

0 ≤∬ 𝜙(𝑥)𝜙∗(𝑦) (∫ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋(𝑓1𝑥+𝑓2𝑦)𝑑𝑓1𝑑𝑓2

ℝ2)𝑑𝑥𝑑𝑦

ℝ2

=∬ 𝐺𝑠(𝑓1 , 𝑓2) (∫ 𝜙(𝑥)𝑒𝑗2𝜋𝑓1𝑥𝑑𝑥∞

−∞

∫ 𝜙∗(𝑦)𝑒𝑗2𝜋𝑓2𝑦𝑑𝑦∞

−∞

)𝑑𝑓1𝑑𝑓2ℝ2

=∬ 𝛷(−𝑓1)𝛷∗(𝑓2)𝐺𝑠(𝑓1, 𝑓2)𝑑𝑓1𝑑𝑓2

ℝ2

=∬ 𝛷(𝑓1)𝛷∗(𝑓2)𝐺𝑠(−𝑓1, 𝑓2)𝑑𝑓1𝑑𝑓2

ℝ2

(21.3.11)

dove 𝛷(𝑓) indica la trasformata della funzione di prova 𝜙(𝑡).

La (21.3.11) comporta il fatto che la 𝐺𝑠(−𝑓1, 𝑓2) è una funzio-

ne semidefinita positiva.

Per segnali stazionari la 𝐺𝑠(𝑓1, 𝑓2) assume la forma (21.3.9) In

questo caso la (21.3.11) può essere ulteriormente elaborata e forni-

sce:

0 ≤ ∬ 𝛷(−𝑓1)𝛷∗(𝑓2)𝑊𝑠(𝑓2)𝛿(𝑓1 + 𝑓2)𝑑𝑓1𝑑𝑓2

ℝ2

=∬ 𝛷(𝑓1)𝛷∗(𝑓2)𝑊𝑠(𝑓2)𝛿(𝑓2 − 𝑓1)𝑑𝑓1𝑑𝑓2

ℝ2

= ∫ |𝛷(𝑓2)|2𝑊𝑠(𝑓2)𝑑𝑓2

−∞

(21.3.12)

la quale, vista l'arbitrarietà della 𝜙(𝑡), e quindi anche della 𝛷(𝑓), im-

plica che la densità spettrale di potenza di un segnale stazionario è

una funzione non negativa del suo argomento.

Le proprietà principali della 𝐺𝑠(𝑓1, 𝑓2) e della 𝑊𝑠(𝑓) sono rias-

sunte nella Tabella VII.2

Tabella 21.2

Proprietà della Gs ( f1, f2 ) e della Ws ( f )

Segnali non stazionari Segnali stazionari

𝐺(𝑓1, 𝑓2)

= ∫ ∫ 𝑅(𝑡1, 𝑡2)𝑒−𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑡1𝑑𝑡2

−∞

−∞

𝑊𝑠(𝑓) = ∫ 𝑅(𝜏)𝑒−𝑗2𝜋𝑓𝜏𝑑𝜏

−∞

𝑊𝑠(𝑓1, 𝑓2) = 𝑊𝑠∗(−𝑓2, −𝑓1) 𝑊𝑠(𝑓) = 𝑊𝑠

∗(𝑓) 𝐺𝑠(−𝑓1 , 𝑓2) è semidefinita positiva 𝑊𝑠(𝑓) ≥ 0

𝑅𝑠(𝑡, 𝑡)

= ∫ (∫ 𝐺𝑠(𝑓 − 𝜑, 𝜑)𝑑𝜑∞

−∞

)𝑒𝑗2𝜋𝑓𝑡𝑑𝑓∞

−∞

𝑅𝑠(0) = ∫ 𝑊𝑠(𝑓)𝑑𝑓

−∞

Tenendo conto della (21.3.2) la (21.2.14) si può scrivere:

Page 381: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 369

𝜙𝑠(𝜏)

= lim𝑇→∞

1

𝑇∫ (∬ 𝐺𝑠(𝑓1, 𝑓2)𝑒

𝑗2𝜋𝑓2𝜏𝑒𝑗2𝜋(𝑓1+𝑓2)𝑡𝑑𝑓1𝑑𝑓2ℝ2

)𝑑𝑡

𝑇

2

−𝑇

2

=∬ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋𝑓2𝜏 ( lim

𝑇→∞

1

𝑇∫ 𝑒𝑗2𝜋(𝑓1+𝑓2)𝑡𝑑𝑡

𝑇

2

−𝑇

2

)𝑑𝑓1𝑑𝑓2ℝ2

(21.3.13)

risulta:

lim𝑇→∞

1

𝑇∫ 𝑒𝑗2𝜋(𝑓1+𝑓2)𝑡𝑑𝑡

𝑇

2

−𝑇

2

= {

1; 𝑓1 + 𝑓2 = 0;

lim𝑇→∞

sin[𝜋(𝑓1 + 𝑓2)𝑇]

𝜋(𝑓1 + 𝑓2)𝑇= 0; 𝑓1 + 𝑓2 ≠ 0;

(21.3.14)

Si conclude che l'integrale (21.3.13) vale zero a meno che la 𝐺𝑠(𝑓1, 𝑓2)

non presenti una singolarità di tipo delta di Dirac lungo la retta di

equazione 𝑓1 + 𝑓2 = 0. Alla luce di questa considerazione è utile ri-

scrivere la 𝐺𝑠(𝑓1, 𝑓2) nella forma:

𝐺𝑠(𝑓1, 𝑓2) = 𝛤(𝑓1, 𝑓2) + 𝛷(𝑓2)𝛿(𝑓1 + 𝑓2) (21.3.15)

dove la 𝛤(𝑓1, 𝑓2) non presenta singolarità lungo la seconda bisettrice.

Si osservi che è sempre possibile scrivere la 𝐺𝑠(𝑓1, 𝑓2) nella forma

(21.3.15) Infatti, qualora essa non presenti singolarità lungo la se-

conda bisettrice sarebbe sufficiente porre 𝛷(𝑓2) = 0 nel qual caso

ovviamente si avrebbe 𝛤(𝑓1, 𝑓2) = 𝐺𝑠(𝑓1, 𝑓2). Sostituendo la (21.3.15)

nella (21.3.13), tenendo conto della (21.3.14) si ottiene:

𝜙𝑠(𝜏)

= ∬ (𝛤(𝑓1, 𝑓2) + 𝛷(𝑓2)𝛿(𝑓1ℝ2

+ 𝑓2))𝑒𝑗2𝜋𝑓2𝜏 ( lim

𝑇→∞

1

𝑇∫ 𝑒𝑗2𝜋(𝑓1+𝑓2)𝑡𝑑𝑡

𝑇

2

−𝑇

2

)𝑑𝑓1𝑑𝑓2

=∬ 𝛷(𝑓2)𝛿(𝑓1 + 𝑓2)𝑒𝑗2𝜋𝑓2𝜏𝑑𝑓1𝑑𝑓2

ℝ2

= ∫ 𝛷(𝑓2)𝑒𝑗2𝜋𝑓2𝜏𝑑𝑓2

−∞

(21.3.16)

Confrontando la (21.3.13)con la (21.3.16) si conclude che:

𝛷(𝑓) = 𝑊(𝑓) (21.3.17)

Page 382: Lezioni di TEORIA DEI SEGNALI.pdf

370 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

cioè la densita spettrale di potenza di un segnale aleatorio è data an-

che dalla funzione peso della eventuale singolarità di tipo delta di Di-

rac che la 𝐺𝑠(𝑓1, 𝑓2) presenta lungo la seconda bisettrice del piano

(𝑂, 𝑓1, 𝑓2). Qualora detta singolarità non dovesse presentarsi il pro-

cesso in questione sarebbe ad energia finita.

In Conclusione la densità spettrale di potenza di un processo

aleatorio può alternativamente essere calcolata per mezzo della

(21.2.4), ovvero tramite la (21.2.15), o ancora effettuando la trasfor-

mata di Fourier bidimensionale della funzione di autocorrelazione,

ed isolando in quest'ultima il peso della delta di Dirac che essa pre-

senta lungo la seconda bisettrice del piano (𝒐, 𝑓1, 𝑓2).

Esempio 21.2

Sia

𝑠(𝑡, 휁) = 𝑎(𝑡, 휁) ∑ 𝛿(𝑡 − 𝑛𝑇)

𝑛=−∞

un segnale aleatorio in cui a ( t , ) rappresenta un segnale stazionario ca-

ratterizzato dalla funzione di autocorrelazione data da Ra() .

La funzione di autocorrelazione di s( t , ) vale:

𝑅𝑠(𝑡1, 𝑡2) = 𝑠(𝑡1, 휁)𝑠(𝑡2, 휁)

= 𝑎(𝑡1, 휁)𝑎(𝑡2, 휁) ∑ ∑ 𝛿(𝑡1 −𝑚𝑇)𝛿(𝑡2 − 𝑛𝑇)

𝑛=−∞

𝑚=−∞

= 𝑅𝑎(𝑡2 − 𝑡1) ∑ ∑ 𝛿(𝑡1 −𝑚𝑇)𝛿(𝑡2 − 𝑛𝑇)

𝑛=−∞

𝑚=−∞

Il segnale s ( t , ) non è pertanto stazionario, poiché la sua funzione di

autocorrelazione dipende da entrambe le variabili t1 e t

2. Risulta:

𝐺𝑠(𝑓1, 𝑓2)

= ∬ 𝑅𝑎(𝑡2 − 𝑡1) ∑ 𝛿(𝑡1 −𝑚𝑇)𝛿(𝑡2 − 𝑛𝑇)𝑒−𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)

𝑚,𝑚=−∞

𝑑𝑡1𝑑𝑡2ℝ2

= ∑ ∬ 𝑅𝑎(𝑡2 − 𝑡1)𝛿(𝑡1 −𝑚𝑇)𝛿(𝑡2 − 𝑛𝑇)𝑒−𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑡1𝑑𝑡2

ℝ2

𝑚,𝑛=−∞

= ∑ 𝑅𝑎[(𝑚 − 𝑛)𝑇]𝑒−𝑗2𝜋(𝑚𝑓1+𝑛𝑓2)𝑇∞

𝑚,𝑛=−∞

Page 383: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 371

Segnali ciclostazionari. 21.4 -

Una classe particolarmente importante di segnali aleatori è co-

stituita dai cosiddetti segnali ciclostazionari.

Al fine di definire tale classe si osservi che nella funzione di

autocorrelazione 𝑅(𝑡1, 𝑡2) si può sempre porre:

{𝑡1 = 𝑡; 𝑡2 − 𝑡1 = 𝜏;

(21.4.1)

La sostituzione appena definita comporta 𝑅(𝑡1, 𝑡2) = 𝑅(𝑡, 𝑡 + 𝜏).

L'autocorrelazione può cioè essere pensata come funzione 𝑅(𝑡, 𝜏) di

uno solo dei due istanti di osservazione e dalla differenza tra essi.

Un segnale si dice ciclostazionario se la sua autocorrelazione

espressa nella forma 𝑅𝑠(𝑡, 𝜏) è periodica di periodo 𝑇 rispetto a 𝑡.

L'autocorrelazione di un segnale ciclostazionario può quindi

essere espansa in serie di Fourier, fermo restando che i coefficienti

che compariranno nella serie dipenderanno da 𝜏. Si potrà cioè scrive-

re:

𝑅𝑠(𝑡, 𝜏) = ∑ 𝑅𝑛(𝜏)𝑒−𝑗2𝜋

𝑛𝑡

𝑇

𝑛=−∞

(21.4.2)

Espressa in termini delle variabili 𝑡1 e 𝑡2 la precedente diven-ta:

𝑅𝑠(𝑡1, 𝑡2) = ∑ 𝑅𝑛(𝑡2 − 𝑡1)𝑒−𝑗2𝜋

𝑛𝑡1𝑇

𝑛=−∞

(21.4.3)

risulta quindi:

𝐺𝑠(𝑓1, 𝑓2)

= ∑ ∬ 𝑅𝑛(𝑡2 − 𝑡1)𝑒−𝑗2𝜋[(𝑓1−

𝑛

𝑇)𝑡1+𝑓2𝑡2]𝑑𝑡1𝑑𝑡2

R2

𝑛=−∞

(21.4.4)

che, operando nuovamente la trasformazione (21.4.1), diventa:

𝐺𝑠(𝑓1, 𝑓2) = ∑ ∬ 𝑅𝑛(𝜏)𝑒−𝑗2𝜋[(𝑓1+𝑓2−

𝑛

𝑇)𝑡+𝑓2𝜏]𝑑𝑡𝑑𝜏

ℝ2

𝑛=−∞

= ∑ ∫ 𝑅𝑛(𝜏)𝑒−𝑗2𝜋𝑓2𝜏𝑑𝜏

−∞

∫ 𝑒−𝑗2𝜋(𝑓1+𝑓2−𝑛

𝑇)𝑡𝑑𝑡

−∞

𝑛=−∞

= ∫ 𝑅𝑛(𝜏)𝑒−𝑗2𝜋𝑓2𝜏𝑑𝜏

−∞

∑ 𝛿(𝑓1 + 𝑓2 −𝑛

𝑇)

𝑛=−∞

(21.4.5)

Page 384: Lezioni di TEORIA DEI SEGNALI.pdf

372 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

La quale, detta 𝑊𝑛(𝑓) la trasformata di 𝑅𝑛(𝜏) si può ancora scrivere:

𝐺𝑠(𝑓1, 𝑓2) = ∑ 𝑊𝑛(𝑓2)𝛿 (𝑓1 + 𝑓2 −𝑛

𝑇)

𝑛=−∞

(21.4.6)

La precedente

consente di concludere

che la 𝐺𝑠(𝑓1, 𝑓2) di un

segnale ciclostazionario

è nulla nel piano

(𝒐, 𝑓1, 𝑓2) eccetto che

sulle rette 𝑓1 + 𝑓2 =𝑛

𝑇

che appartengono al fa-

scio improprio definito

dalla seconda bisettrice

(vedi Fig. 21.1) sulle

quali sono localizzate

delle singolarità di tipo

delta di Dirac ciascuna

pesata dalla corrispon-

dente 𝑊𝑛(𝑓).

È interessante notare che un segnale stazionario può essere pen-

sato come un particolare segnale ciclostazionario per il quale l'unico

coefficiente 𝑅𝑛(𝜏) non nullo è quello di indice zero. Ci si rende fa-

cilmente conto che in questo caso la (21.4.6) e la (21.1.9) si identifi-

cano.

Esempio 21.3

Si consideri il seguente segnale aleatorio

𝑠(𝑡, 𝒂, 𝜗) = ∑ 𝑎𝑛⊓ (𝑡 − 𝑛𝑇0 − 𝜗

𝑇0)

𝑛=−∞

dove 𝒂 = {𝑎𝑛} è una sequenza di variabili casuali che assumono valori

appartenenti all’insieme {−1,1} e un ritardo uniformemente distribuito

in [-𝑇0/2, 𝑇0/2] indipendente dalla sequenza 𝒂.

Si supponga inoltre che le probabilità con cui 𝑎𝑛 assume il valore 1 o

−1 siano uguali e a loro volta indipendenti dal valore assunto da ogni al-

tro simbolo 𝑎𝑚 con 𝑚 ≠ 𝑛.

Fig. 21.1 - Localizzazione delle singolarità per se-

gnali ciclostazionari.

Page 385: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 373

Una possibile mani-

festazione del segnale si

presenta allora com’è

indicato in Fig.E 21.1.

Al fine di calcolare

la densità spettrale di

potenza del segnale

𝑠(𝑡, 𝒂, 𝜗) si procede alla

valutazione della funzione di autocorrelazione

𝑅𝑠(𝑡, 𝑡 + 𝜏) = 𝑠(𝑎, 𝜗, 𝑡)𝑠(𝑎, 𝜗, 𝑡 + 𝜏

= ∑∑𝑎𝑚𝑎𝑛 ⋅⊓ (𝑡 − 𝑚𝑇0 − 𝜗

𝑇0)⊓ (

𝑡 + 𝜏 − 𝑛𝑇0 − 𝜗

𝑇0)

𝑛𝑚

Risulta:

𝑎𝑛𝑎𝑚 = {��𝑛 ⋅ 𝐸{𝑎𝑚|𝑎𝑛} = ��𝑛 ⋅ ��𝑚 = 0; 𝑚 ≠ 𝑛

𝑎𝑛2 = 1; 𝑚 = 𝑛

poiché:

��𝑛 = (1)1

2+ (−1)

1

2= 0

e

𝑎𝑛2 = (1)

1

2+ (1)

1

2= 1

Di conseguenza si ha:

𝑅𝑠(𝑡, 𝑡 + 𝜏) =∑⊓ (𝑡 − 𝑛𝑇0 − 𝜗

𝑇0)⊓ (

𝑡 + 𝜏 − 𝑛𝑇0 − 𝜗

𝑇0)

𝑛

Per calcolare la media sopra indicata, basta osservare che il prodotto

tra i due impulsi rettangolari che costituisce il generico addendo della

sommatoria da luogo ad un risultato non nullo solo quando è soddisfatta

una delle due disequazioni:

{𝑡 − 𝑛𝑇0 +

𝑇02+ 𝜏 ≥ 𝑡 − 𝑛𝑇0 −

𝑇02;

𝑡 − 𝑛𝑇0 −𝑇02+ 𝜏 ≤ 𝑡 − 𝑛𝑇0 +

𝑇02;

cioè quando | .

Inoltre ci si rende conto che, ferma restante quest’ultima limitazione,

fissato un istante 𝑡 esiste in corrispondenza ad esso un unico valore dell'

indice 𝑛 cui corrisponde un addendo diverso da zero. Detto 𝑛𝑡 tale valore

si può cioé scrivere:

Fig.E 21.1

Page 386: Lezioni di TEORIA DEI SEGNALI.pdf

374 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑅𝑠(𝑡, 𝑡 + 𝜏) =⊓ (𝑡 − 𝑛𝑡𝑇0 − 𝜗

𝑇0)⊓ (

𝑡 + 𝜏 − 𝑛𝑡𝑇0 − 𝜗

𝑇0)

= ∫ ⊓ (𝑡 − 𝑛𝑡𝑇0 − 𝑥

𝑇0)⊓ (

𝑡 + 𝜏 − 𝑛𝑡𝑇0 − 𝑥

𝑇0) 𝑝𝜗(𝑥)

−∞

𝑑𝑥

=1

𝑇0∫ ⊓(

𝑥′

𝑇0)⊓(

𝑥′ + 𝜏

𝑇0)𝑑𝑥′

−∞

Da cui facilmente si ottiene:

𝑅𝑠(𝑡, 𝑡 + 𝜏) = (1 −|𝜏|

𝑇0)⊓ (

𝜏

2𝑇0) = 𝑅𝑠(𝜏)

La funzione di autocorrelazione dipende quindi esclusivamente da , os-

servando inoltre che il segnale ha valore medio nullo si conclude che il

segnale in questione è stazionario in senso lato, quindi la sua densità

spettrale di potenza è data dalla trasformata di Fourier della sua funzione

di autocorrelazione.

In definitiva quindi risulta:

𝑊𝑠(𝑓) = ℱ[𝑅𝑠(𝜏)] = 𝑇0sinc2(𝑓𝑇0)

In alternativa la densità spettrale di potenza del segnale s( t ,a ,) può

essere calcolata direttamente sulla base della sua definizione (21.2.4).

Ponendo T=(𝑁 + 1)T0 il segnale troncato assume la forma:

𝑠𝑇(𝑎, 𝜗, 𝑡) = ∑ 𝑎𝑛⊓ (𝑡 − 𝑛𝑇0 − 𝜗

𝑇0)

𝑁

𝑛=−𝑁

Ad esso corrisponde la seguente trasformata di Fourier:

𝑆𝑇(𝑓, 𝑎, 𝜗) = 𝑇0sinc(𝑓𝑇0) ∑ 𝑎𝑛𝑒−𝑗2𝜋𝑓(𝑛𝑇0+𝜗)

𝑁

𝑛=−𝑁

Si ha quindi:

|𝑆𝑇(𝑓, 𝑎, 𝜗)|2 = 𝑇0

2sinc2(𝑓𝑇0) ⋅ ∑ ∑ 𝑎𝑚𝑎𝑛𝑒−𝑗2𝜋(𝑚−𝑛)𝑓𝑇0

𝑁

𝑛=−𝑁

𝑁

𝑚=−𝑁

= 𝑇02sinc2(𝑓𝑇0) ⋅ ∑ ∑ 𝑎𝑚𝑎𝑛 𝑒−𝑗2𝜋(𝑚−𝑛)𝑓𝑇0

𝑁

𝑛=−𝑁

𝑁

𝑚=−𝑁

= 𝑇02sinc2(𝑓𝑇0)(2𝑁 + 1)

Pertanto:

𝑊𝑠(𝑓) = lim𝑇→∞

|𝑆𝑇(𝑎,𝑓)|2

𝑇= lim

𝑇→∞

2𝑁+1

2𝑁𝑇0+𝑇0𝑇02sinc2(𝑓𝑇0) = 𝑇0sinc

2(𝑓𝑇0)

Page 387: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 375

Esempio 21.4

Si determini la densità spettrale del segnale:

𝑣(𝑡, 휁) = 𝑠(𝑡, 휁) cos(2𝜋𝑓0𝑡)

dove s( t , ) è un segnale stazionario in senso lato caratterizzato da una

funzione di autocorrelazione e da una densità spettrale di potenza date da

Ra() e W

a( f) rispettivamente.

La funzione di autocorrelazione di ( t , ) vale:

𝑅𝑣(𝑡1, 𝑡2) = 𝑣(𝑡1)𝑣(𝑡2) = 𝑠(𝑡1)𝑠(𝑡2) cos(2𝜋𝑓0𝑡1)cos(2𝜋𝑓0𝑡2)

=1

2𝑅𝑠(𝑡2 − 𝑡1) ⋅ {cos[2𝜋𝑓0(𝑡1 − 𝑡2)] + cos[2𝜋𝑓0(𝑡1 + 𝑡2)]}

Il segnale ( t , ) è pertanto non stazionario dato che la sua funzione

di autocorrelazione non dipende soltanto dalla differenza tra t e t

.

La trasformata bidimensionale di Fourier di R( t

t

) vale:

𝐺𝑣(𝑓1, 𝑓2) = ∬ 𝑅𝑣(𝑡1, 𝑡2)𝑒−𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑡1𝑑𝑡2

ℝ2

=1

2∬ 𝑅𝑠(𝑡2ℝ2

− 𝑡1){cos[2𝜋𝑓0(𝑡1 − 𝑡2)] + cos[2𝜋𝑓0(𝑡1 + 𝑡2)]}𝑒−𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑡1𝑑𝑡2

Introducendo la trasformazione di variabili:

{𝑡1 =

1

2(𝑥 + 𝑦);

𝑡2 =1

2(𝑥 − 𝑦);

la G( f

f

) diventa:

𝐺𝑣(𝑓1, 𝑓2) =1

4∬ 𝑅𝑠(𝑦)(cos2𝜋𝑓0𝑦 + cos2𝜋𝑓0𝑥)𝑒

−𝑗𝜋[(𝑓1+𝑓2)𝑥+(𝑓1−𝑓2)𝑦]𝑑𝑥𝑑𝑦𝑅2

dove si è anche tenuto conto che risulta R(y)=R(-y) e che

𝑑𝑡1𝑑𝑡2 = |𝜕(𝑡1,𝑡2)

𝜕(𝑥,𝑦)|𝑑𝑥𝑑𝑦 = |

𝜕𝑡1

𝜕𝑥

𝜕𝑡1

𝜕𝑦

𝜕𝑡2

𝜕𝑥

𝜕𝑡2

𝜕𝑦

|𝑑𝑥𝑑𝑦 = |

1

2

1

21

2−1

2

|𝑑𝑥𝑑𝑦 =1

2𝑑𝑥𝑑𝑦

Si ottiene allora:

𝐺𝑣(𝑓1, 𝑓2) =1

4∫ 𝑒−𝑗𝜋(𝑓1+𝑓2)𝑥𝑑𝑥∞

−∞ ∫ 𝑅𝑠(𝑦)cos(2𝜋𝑓0𝑦)𝑒−𝑗𝜋(𝑓1−𝑓2)𝑦𝑑𝑦

−∞+

∫ cos(2𝜋𝑓0𝑥)𝑒−𝑗𝜋(𝑓1+𝑓2)𝑥𝑑𝑥

−∞ ∫ 𝑅𝑠(𝑦)𝑒−𝑗𝜋(𝑓1−𝑓2)𝑦𝑑𝑦

−∞=

1

8[𝑊𝑠(

𝑓1−𝑓2

2− 𝑓0) +

𝑊𝑠(𝑓1−𝑓2

2+ 𝑓0)] ⋅ 𝛿(

𝑓1+𝑓2

2) + +

1

8𝑊𝑠(

𝑓1−𝑓2

2) ⋅ [𝛿(

𝑓1+𝑓2

2− 𝑓0) + 𝛿(

𝑓1+𝑓2

2− 𝑓0)]

Tenendo conto che risulta:

Page 388: Lezioni di TEORIA DEI SEGNALI.pdf

376 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝛿 (𝑡

𝑇) = 𝑇 ⋅ 𝛿(𝑡)

la precedente si può ancora riscrivere:

𝐺𝑣(𝑓1, 𝑓2) =1

4[𝑊𝑠 (

𝑓1−𝑓2

2− 𝑓0) +𝑊𝑠 (

𝑓1−𝑓2

2+ 𝑓0)] ⋅ 𝛿(𝑓1 − 𝑓2) +

1

4𝑊𝑠(

𝑓1−𝑓2

2) ⋅

[𝛿(𝑓1 + 𝑓2 − 2𝑓0) + 𝛿(𝑓1 + 𝑓2 + 2𝑓0)]

dalla quale si deduce che 𝐺𝜈(𝑓1, 𝑓2) è una distribuzione localizzata nei

punti del piano (𝒐, 𝑓1, 𝑓2) appartenenti alle rette di equazione:

𝑓1 + 𝑓2 = 𝑘𝑓0𝑘 ∈ {−2,0,2}

La densità spettrale di potenza del segnale vale:

𝑊𝑣(𝑓) =1

4[𝑊𝑠(𝑓 − 𝑓0) +𝑊𝑠(𝑓 + 𝑓0)]

che ovviamente poteva anche calcolarsi direttamente come trasformata di

Fourier del valor medio temporale della funzione 𝑅(𝑡, 𝑡 + 𝜏):

𝜙𝑣(𝜏) = lim𝑇→∞

1

2𝑇∫ 𝑅𝑣(𝑡, 𝑡 + 𝜏)𝑑𝑡𝑇

−𝑇

=1

2𝑅𝑠(𝜏)cos(2𝜋𝑓0𝜏)

Segnali distinti. Funzioni di correlazione e densità 21.5 - spettrale incrociate.

Le considerazioni svolte nei precedenti paragrafi possono es-

sere facilmente estese al caso di n segnali aleatori tempo continui

𝑠𝑖(𝑡, 휁). In quel che segue è conveniente introdurre il vettore

𝑠(𝑡, 휁) = [

𝑠1(𝑡, 휁)

𝑠2(𝑡, 휁)…

𝑠𝑛(𝑡, 휁)

] (21.5.1)

si definisce matrice di correlazione la matrice:

𝑅(𝑡1, 𝑡2) = 𝑠∗(𝑡1, 휁)𝑠

𝑇(𝑡2, 휁)

=

[ 𝑠1∗(𝑡1, 휁)𝑠1(𝑡2, 휁) 𝑠1

∗(𝑡1, 휁)𝑠2(𝑡2, 휁) … 𝑠1∗(𝑡1, 휁)𝑠𝑛(𝑡2, 휁)

𝑠2∗(𝑡1, 휁)𝑠1(𝑡2, 휁) 𝑠2

∗(𝑡1, 휁)𝑠2(𝑡2, 휁) … 𝑠2∗(𝑡1, 휁)𝑠𝑛(𝑡2, 휁)

… … … …𝑠𝑛∗(𝑡1, 휁)𝑠1(𝑡2, 휁) 𝑠𝑛

∗(𝑡1, 휁)𝑠2(𝑡2, 휁) … 𝑠𝑛∗(𝑡1, 휁)𝑠𝑛(𝑡2, 휁) ]

(21.5.2)

Essa dipende dalle variabili 𝑡1 e 𝑡2 a meno che i segnali non siano

congiuntamente stazionari. In questo caso la matrice di correlazione

dipende in effetti dalla differenza tra gli istanti di tempo e si ha:

𝑅(𝜏) = 𝑠∗(𝑡, 휁)𝑠𝑇(𝑡 + 𝜏, 휁) (21.5.3)

Page 389: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 377

Con riferimento alla (21.5.2) gli elementi della diagonale prin-

cipale della matrice di correlazione sono le autocorrelazioni dei se-

gnali 𝑠𝑖(𝑡, 휁), mentre gli altri elementi rappresentano le mutue correla-

zioni o correlazioni incrociate:

Risulta ovviamente:

𝑅𝑖𝑗(𝑡2, 𝑡1) = 𝑠𝑖∗(𝑡2)𝑠𝑗(𝑡1) = [𝑠𝑗

∗(𝑡1)𝑠𝑖(𝑡2) ]∗ = 𝑅𝑗𝑖∗ (𝑡1, 𝑡2) (21.5.4)

Se i segnali 𝑠𝑖(𝑡, 휁) sono stazionari la precedente diventa:

𝑅𝑖𝑗(𝜏) = 𝑅𝑗𝑖∗ (−𝜏) (21.5.5)

Si consideri adesso il seguente segnale

𝑥(𝑡, 휁) = ∑𝑎𝑖𝑠𝑖(𝑡, 휁)

𝑛

𝑖=1

= 𝑎𝑇 ⋅ 𝑠(𝑡, 휁) (21.5.6)

in cui 𝒂 rappresenta un arbitrario vettore di 𝑛 costanti complesse. La

funzione di autocorrelazione di 𝑥(𝑡, 휁) vale:

𝑅𝑥(𝑡1, 𝑡2) = 𝑥(𝑡1, 휁)𝑥(𝑡2, 휁) = 𝒂†𝑠(𝑡1, 휁)𝑠(𝑡2, 휁) 𝒂= 𝒂†𝑅(𝑡1, 𝑡2)𝒂 (21.5.7)

dove 𝒂† denota il trasposto coniugato del vettore 𝒂.

In 𝑡1 = 𝑡2 = 𝑡 risulta

0 ≤ |𝑥(𝑡, 휁)|2 = 𝑅𝑥(𝑡, 𝑡) = 𝒂†𝑅𝑠(𝑡, 𝑡)𝒂 (21.5.8)

dalla quale si evince che la matrice di correlazione è semidefinita po-

sitiva in ogni punto della prima bisettrice del piano (𝒐, 𝑡1, 𝑡2).

Le considerazioni sin qui svolte si possono applicare al se-

guente vettore aleatorio:

𝑦(𝑡, 휁) = [𝑠1(𝑡, 휁)

𝑠2(𝑡 + 𝜏, 휁)] (21.5.9)

il quale per un assegnato valore di 𝜏 dipende solo dall'istante 𝑡. La

matrice di correlazione calcolata in 𝜏 = 0 vale:

𝑅𝑦(𝑡, 𝑡) = 𝑦∗(𝑡, 휁)𝑦𝑇(𝑡, 휁)

= [𝑅11(𝑡, 𝑡) 𝑅12(𝑡, 𝑡 + 𝜏)

𝑅21(𝑡 + 𝜏, 𝑡) 𝑅22(𝑡 + 𝜏, 𝑡 + 𝜏)] (21.5.10)

Il fatto che 𝑅𝑦(𝑡, 𝑡) è semidefinta positiva consente di scrivere la di-

suguaglianza:

Page 390: Lezioni di TEORIA DEI SEGNALI.pdf

378 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑅11(𝑡, 𝑡)𝑅22(𝑡 + 𝜏, 𝑡 + 𝜏) − 𝑅12(𝑡, 𝑡 + 𝜏)𝑅21(𝑡 + 𝜏, 𝑡)≥ 0 (21.5.11)

dalla quale, ricordando la (21.5.4) e ponendo 𝑡1 = 𝑡; 𝑡2 = 𝑡 + 𝜏 si de-

duce:

|𝑅12(𝑡1, 𝑡2)| ≤ √𝑅11(𝑡1, 𝑡1) ⋅ 𝑅22(𝑡2, 𝑡2) (21.5.12)

Se 𝑠1(𝑡, 휁) ed 𝑠2(𝑡 + 𝜏, 휁) sono congiuntamente stazionari, la

precedente si riduce alla:

|𝑅12(𝜏)| ≤ √𝑅11(0) ⋅ 𝑅22(0) (21.5.13)

In certi casi, è preferibile caratterizzare 𝑛 segnali aleatori me-

diante la matrice di covarianza così definita:

𝜎(𝑡1, 𝑡2) = [𝑠(𝑡1, 휁) − 𝑚(𝑡1)]

∗[𝑠(𝑡2, 휁) − 𝑚(𝑡2)]𝑇

= 𝑅(𝑡1, 𝑡2) − 𝒎∗(𝑡1)𝒎

𝑇(𝑡2) (21.5.14)

dove 𝒎(𝑡) è il vettore dei valori medi dei segnali valutato nell'istante

𝑡:

Due segnali aleatori 𝑠1(𝑡, 휁) e 𝑠2(𝑡, 휁) si dicono ortogonali se la

loro funzione di mutua correlazione è nulla, incorrelati se è nulla la lo-

ro funzione di mutua covarianza.

È da notare che se i segnali sono statisticamente indipendenti

sono anche incorrelati dal momento che risulta:

𝑅12(𝑡1, 𝑡2) = 𝑚1∗(𝑡1)𝑚2(𝑡2) (21.5.15)

Non è vero il contrario cioé se due segnali sono incorrelati non è

detto che essi siano anche statisticamente indipendenti.

Trasformando secondo Fourier ciascun elemento della matri-

ce di correlazione associata ad un vettore 𝒔(𝑡, 휁) di segnali aleatori si

ottiene la matrice:

𝑮(𝑓1, 𝑓2) = [

𝐺11(𝑓1, 𝑓2) 𝐺12(𝑓1, 𝑓2) … 𝐺1𝑛(𝑓1, 𝑓2)

𝐺21(𝑓1, 𝑓2) 𝐺22(𝑓1, 𝑓2) … 𝐺2𝑛(𝑓1, 𝑓2)… … … …

𝐺𝑛1(𝑓1, 𝑓2) 𝐺𝑛2(𝑓1, 𝑓2) … 𝐺𝑛𝑛(𝑓1, 𝑓2)

] (21.5.16)

il cui generico elemento vale:

𝐺𝑖𝑗(𝑓1, 𝑓2) = ∫ ∫ 𝑅𝑖𝑗(𝑡1, 𝑡2)𝑒−𝑗2𝜋(𝑓1𝑡1+𝑓2𝑡2)𝑑𝑡1𝑑𝑡2

−∞

−∞

(21.5.17)

Page 391: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 21 – Caratterizzazione Energetica dei Segnali a Tempo Continuo - 379

Se i segnali 𝑠𝑖(𝑡, 휁), 𝑠𝑗(𝑡, 휁) sono congiuntamente stazionari la

(21.5.16) può porsi nella forma:

𝐺𝑖𝑗(𝑓1, 𝑓2) = ∫ ∫ 𝑅𝑖𝑗(𝜏)𝑒

−𝑗2𝜋[(𝑓1+𝑓2)𝑡+𝑓2𝜏]𝑑𝑡𝑑𝜏∞

−∞

−∞

= 𝑊𝑖𝑗(𝑓2)𝛿(𝑓1 + 𝑓2) (21.5.18)

dove 𝑊𝑖𝑗(𝑓) rappresenta la trasformata di Fourier di 𝑅𝑖𝑗(𝜏).

Se i segnali che compongono il vettore 𝒔(𝑡, 휁) sono congiun-

tamente stazionari la matrice 𝑮(𝑓1, 𝑓2) può essere quindi immediata-

mente dedotta dalla seguente matrice delle densità spettrali:

𝑾(𝑓) = [

𝑊11(𝑓) 𝑊12(𝑓) … 𝑊1𝑛(𝑓)

𝑊21(𝑓) 𝑊22(𝑓) … 𝑊2𝑛(𝑓)… … … …

𝑊𝑛1(𝑓) 𝑊𝑛2(𝑓) … 𝑊𝑛𝑛(𝑓)

] (21.5.19)

La condizione ((21.5.4)) comporta:

𝐺𝑖𝑗(𝑓1, 𝑓2) = 𝐺𝑗𝑖∗ (−𝑓2, −𝑓1) (21.5.20)

che nel caso di segnali congiuntamente stazionari si traduce nella

𝑊𝑖𝑗(𝑓) = 𝑊𝑗𝑖∗(𝑓) (21.5.21)

Dalla quale si evince che 𝑾(𝑓) è una matrice hermitiana.

Page 392: Lezioni di TEORIA DEI SEGNALI.pdf
Page 393: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 22

CARATTERIZZAZIONE ENERGETICA DI SEGNALI

ALEATORI A TEMPO DISCRETO

Funzione di autocorrelazione. 22.1 -

La caratterizzazione energetica dei segnali a tempo discreto non pre-

senta sostanziali differenze rispetto a quanto visto a proposito dei se-

gnali a tempo continuo, le uniche variazioni sono ovviamente quelle

connesse alla sostituzione della variabile continua 𝑡 con la variabile

discreta 𝑛𝑇.

Sia 𝑠(𝑛𝑇, 휁) (−∞ < 𝑛 < ∞) un segnale aleatorio, in generale com-

plesso, a tempo discreto. La sua funzione di autocorrelazione è defi-

nita dalla:

𝑅𝑠(𝑚𝑇, 𝑛𝑇) = 𝑠∗(𝑚𝑇)𝑠(𝑛𝑇) (22.1.1)

la quale, in generale, dipende dagli indici 𝑚 e 𝑛.

Se il segnale è stazionario (almeno in senso lato) l’autocorrelazione

dipende in effetti dalla differenza 𝑘𝑇 = (𝑚 − 𝑛)𝑇 tra gli istanti di os-

servazione ed è quindi funzione di una sola variabile, o meglio da un

solo indice, data la natura discreta del segnale.

Ponendo nella (22.1.1) 𝑛 = 𝑚 si ottiene:

𝑅𝑠(𝑛𝑇, 𝑛𝑇) = |𝑠(𝑛𝑇)|2 ≥ 0 (22.1.2)

che, nel caso di segnali stazionari, si riduce alla:

𝑅𝑠(0) = |𝑠(𝑛𝑇)|2 ≥ 0 (22.1.3)

Dalla (22.1.1) si deduce facilmente:

𝑅𝑠(𝑛𝑇,𝑚𝑇) = 𝑠

∗(𝑛𝑇)𝑠(𝑚𝑇) = 𝑠∗(𝑚𝑇)𝑠(𝑛𝑇) ∗

= 𝑅𝑠∗(𝑚𝑇, 𝑛𝑇) (22.1.4)

Che per segnali reali comporta:

𝑅𝑠(𝑛𝑇,𝑚𝑇) = 𝑅𝑠(𝑚𝑇, 𝑛𝑇) (22.1.5)

Nel caso di segnali stazionari la (22.1.3) diviene:

Page 394: Lezioni di TEORIA DEI SEGNALI.pdf

382 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑅𝑠(𝑘𝑇) = 𝑅𝑠∗(−𝑘𝑇) (22.1.6)

che se il segnale è anche reale, diventa:

𝑅𝑠(𝑘𝑇) = 𝑅𝑠(−𝑘𝑇) (22.1.7)

Pertanto l’autocorrelazione di un segnale reale e stazionario almeno

in senso lato, è una funzione pari rispetto all’indice 𝑘.

Si consideri adesso una sequenza {𝜙(𝑛)}𝑛=−∞∞ generalmente com-

plessa a quadrato sommabile:

∑ |𝜙(𝑛)|2∞

𝑛=−∞

< ∞ (22.1.8)

e si calcoli il secondo momento assoluto della variabile aleatoria:

𝑠𝜙 = ∑ 𝑠∗(𝑛𝑇)𝜙(𝑛)

𝑛=−∞

(22.1.9)

Si ha:

0 ≤ |𝑠𝜙|2 = ∑ ∑ 𝜙(𝑝)𝑠∗(𝑝𝑇)𝑠(𝑞𝑇) 𝜙∗(𝑞)

𝑞=−∞

𝑝=−∞

(22.1.10)

Ciò significa che, qualunque sia la sequenza 𝜙(𝑛), é soddisfatta la

condizione:

∑ ∑ 𝜙(𝑝)𝑅𝑠(𝑝𝑇, 𝑞𝑇)𝜙∗(𝑞)

𝑞=−∞

𝑝=−∞

≥ 0 (22.1.11)

che si sintetizza affermando che l’autocorrelazione è una funzione

semidefinta positiva.

Denotando con 𝛿(𝑛) la sequenza definita dalla:

𝛿(𝑛) = {1; 𝑛 = 00; 𝑛 ≠ 0

(22.1.12)

si ponga:

𝜙(𝑝) = 𝛼𝛿(𝑝 − 𝑚) + 𝛽𝛿(𝑝 − 𝑛) (22.1.13)

dove 𝛼 e 𝛽 sono delle costanti complesse arbitrarie. Con questa scel-

ta della 𝜙(𝑝), la (22.1.11) fornisce:

Page 395: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 22 – Caratterizzazione Energetica dei Segnali a Tempo Discreto - 383

|𝛼|2𝑅𝑠(𝑚𝑇,𝑚𝑇) + 𝛼𝛽

∗𝑅𝑠∗(𝑚𝑇, 𝑛𝑇) + 𝛼∗𝛽𝑅𝑠(𝑚𝑇, 𝑛𝑇)

+ |𝛽|2𝑅𝑠(𝑛𝑇, 𝑛𝑇) ≥ 0 (22.1.14)

che è una forma quadratica semidefinita positiva nelle variabili 𝛼 e 𝛽,

il che comporta:

|𝑅𝑠(𝑚𝑇, 𝑛𝑇)| ≤ √𝑅𝑠(𝑚𝑇,𝑚𝑇)𝑅𝑠(𝑛𝑇, 𝑛𝑇) (22.1.15)

nel caso di segnale stazionario la precedente si scrive:

|𝑅𝑠(𝑘𝑇)| ≤ 𝑅𝑠(0) (22.1.16)

Analogamente a quanto visto per i segnali a tempo continuo, il mo-

dulo dell’autocorrelazione di un segnale a tempo discreto stazionario

almeno in senso lato raggiunge il suo massimo assoluto nell’origine.

Le proprietà dell’autocorrelazione sono riassunte nella Tabella 22.1.

Tabella 22.1

Proprietà della autocorrelazione per segnali a tempo discreto

Segnali stazionari Segnali non stazionari

𝑅𝑠(𝑘𝑇) = 𝑠∗(𝑛𝑇)𝑠(𝑛𝑇 + 𝑘𝑇 𝑅𝑠(𝑚𝑇, 𝑛𝑇) = 𝑠∗(𝑚𝑇)𝑠(𝑛𝑇) 𝑅𝑠(0) = |𝑠(𝑛𝑇)|2 𝑅𝑠(𝑛𝑇, 𝑛𝑇) = |𝑠(𝑛𝑇)|

2 𝑅𝑠(−𝑘𝑇) = 𝑅𝑠

∗(𝑘𝑇) 𝑅𝑠(𝑛𝑇,𝑚𝑇) = 𝑅𝑠∗(𝑚𝑇, 𝑛𝑇)

|𝑅𝑠(𝑘𝑇)| ≤ 𝑅𝑠(0) |𝑅𝑠(𝑚𝑇, 𝑛𝑇)|

≤ √𝑅𝑠(𝑚𝑇,𝑚𝑇)𝑅𝑠(𝑛𝑇, 𝑛𝑇)

∑ ∑ 𝜙(𝑝)𝑅𝑠((𝑞 − 𝑝)𝑇)𝜙∗(𝑞)

𝑞=−∞

𝑝=−∞

≥ 0

∑ ∑ 𝜙(𝑝)𝑅𝑠(𝑝𝑇, 𝑞𝑇)𝜙∗(𝑞)

𝑞=−∞

𝑝=−∞

≥ 0

Densità spettrale di potenza. 22.2 -

La densità spettrale di potenza 𝑊𝑠(𝑓) per i segnali a tempo discreto

viene definita, analogamente a quanto visto per i segnali a tempo

continuo, come la media statistica delle densità spettrali di potenza

delle manifestazioni del processo.

Detto 𝑠𝑁(𝑛𝑇, 휁) il segnale troncato:

(𝑛𝑇, 휁) = {𝑠(𝑛𝑇, 휁); |𝑛| ≤ 𝑁0; |𝑛| > 𝑁

(22.2.1)

si ha:

Page 396: Lezioni di TEORIA DEI SEGNALI.pdf

384 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑊𝑠(𝑓) = lim𝑁→∞

1

(2𝑁 + 1)𝑇|𝑆𝑁(𝑓, 휁)|

2

= lim𝑁→∞

1

(2𝑁 + 1)𝑇𝑆𝑁(𝑓, 휁)𝑆𝑁

∗ (𝑓, 휁) (22.2.2)

dove 𝑆𝑁(𝑓, 휁) denota la trasformata di Fourier discreta di 𝑠𝑁(𝑛𝑇, 휁)

cioè:

𝑆𝑁(𝑓, 휁) = 𝑇 ∑ 𝑠𝑁(𝑛𝑇, 휁)𝑒−𝑗2𝜋𝑛𝑓𝑇

𝑛=−∞

= 𝑇 ∑ 𝑠(𝑛𝑇, 휁)𝑒−𝑗2𝜋𝑛𝑓𝑇𝑁

𝑛=−𝑁

(22.2.3)

Poiché risulta:

𝑆𝑁(𝑓, 휁)𝑆𝑁∗ (𝑓, 휁)

= 𝑇2 ∑ ∑ 𝑠∗(𝑛𝑇, 휁)𝑠(𝑚𝑇, 휁)𝑒−𝑗2𝜋(𝑚−𝑛)𝑓𝑇𝑁

𝑚=−𝑁

𝑁

𝑛=−𝑁

(22.2.4)

si ottiene:

𝑊𝑠(𝑓)

= 𝑇 lim𝑁→∞

1

2𝑁 + 1∑ ∑ 𝑠𝑁

∗ (𝑛𝑇, 휁)𝑠𝑁(𝑚𝑇, 휁) 𝑒−𝑗2𝜋(𝑚−𝑛)𝑓𝑇𝑁

𝑚=−𝑁

𝑁

𝑛=−𝑁

(22.2.5)

che, tenendo conto della (22.1.1), diventa:

𝑊𝑠(𝑓)

= 𝑇 lim𝑁→∞

1

(2𝑁 + 1)𝑇∑ ∑ 𝑅𝑠(𝑛𝑇,𝑚𝑇)𝑒

−𝑗2𝜋(𝑚−𝑛)𝑓𝑇

𝑁

𝑚=−𝑁

𝑁

𝑛=−𝑁

(22.2.6)

L’antitrasformata della 𝑊𝑠(𝑓) vale:

𝜙𝑠(𝑘𝑇) = ∫ 𝑊𝑠(𝑓)𝑒𝑗2𝜋𝑘𝑓𝑇𝑑𝑓

1

2𝑇

−1

2𝑇

= 𝑇 lim𝑁→∞

1

2𝑁 + 1∑ 𝑅𝑠(𝑛𝑇,𝑚𝑇)∫ 𝑒−𝑗2𝜋(𝑚−𝑛−𝑘)𝑓𝑇𝑑𝑓

1

2𝑇

−1

2𝑇

𝑁

𝑛,𝑚=−𝑁

= lim𝑁→∞

1

2𝑁 + 1∑ 𝑅𝑠(𝑛𝑇,𝑚𝑇)sinc(𝑚 − 𝑛 − 𝑘)

𝑁

𝑚,𝑛=−𝑁

= lim𝑁→∞

1

2𝑁 + 1∑ 𝑅𝑠(𝑛𝑇, (𝑛 + 𝑘)𝑇)

𝑁

𝑛=−𝑁

(22.2.7)

Page 397: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 22 – Caratterizzazione Energetica dei Segnali a Tempo Discreto - 385

In conclusione:

𝜙𝑠(𝑘𝑇) = lim𝑁→∞

1

2𝑁 + 1∑ 𝑅𝑠(𝑛𝑇, (𝑛 + 𝑘)𝑇)

𝑁

𝑛=−𝑁

(22.2.8)

Dalla precedente si desume che, analogamente a quanto visto per i

segnali a tempo continuo, la densità spettrale di potenza di un segna-

le a tempo discreto si può ottenere effettuando la trasformata di

Fourier della media temporale espressa dalla (22.2.8).

Inoltre, se il segnale è stazionario almeno in senso lato si ha:

𝜙𝑠(𝑘𝑇) = 𝑅𝑠(𝑘𝑇) (22.2.9)

Dalla quale si desume che, analogamente ai segnali a tempo

continuo, la densità spettrale di potenza di un segnale a tempo di-

screto stazionario, almeno in senso lato, è data dalla trasformata di

Fourier della sua autocorrelazione riferita alla differenza tra i due

istanti di osservazione.

La simmetria hermitiana (22.1.4) di cui gode l’autocorrela-

zione, fa sì che risulti 𝜙𝑠(𝑘𝑇) = 𝜙𝑠∗(−𝑘𝑇), la quale comporta che la

densità spettrale di potenza è una funzione reale del suo argomento.

Se il segnale aleatorio è reale la 𝑊(𝑓) è anche una funzione pari del

suo argomento.

Caratterizzazione nel dominio della frequenza 22.3 -

Come nel caso dei segnali a tempo continuo è utile introdurre

la trasformata discreta di Fourier bidimensionale 𝐺𝑠(𝑓1, 𝑓2) della auto-

correlazione di un segnale tempo discreto

𝐺𝑠(𝑓1, 𝑓2) = 𝑇2 ∑ ∑ 𝑅𝑠(𝑚𝑇, 𝑛𝑇)𝑒−𝑗2𝜋(𝑚𝑓1+𝑛𝑓2)𝑇

𝑛=−∞

𝑚=−∞

(22.3.1)

A differenza del caso dei segnali a tempo continuo, la 𝐺𝑠(𝑓1, 𝑓2) è una

funzione periodica nelle variabili 𝑓1 e 𝑓2 di periodo 1

𝑇; cioè:

𝐺𝑠 (𝑓1 +𝑘1𝑇, 𝑓2 +

𝑘2𝑇) = 𝐺𝑠(𝑓1, 𝑓2) (22.3.2)

quali che siano gli interi 𝑘1 e 𝑘2.

Per inversione della (22.3.1) si ottiene

Page 398: Lezioni di TEORIA DEI SEGNALI.pdf

386 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝑅𝑠(𝑚𝑇, 𝑛𝑇) = ∫ ∫ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋(𝑚𝑓1+𝑛𝑓2)𝑇𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

(22.3.3)

La condizione (22.1.4) si può scrivere:

∫ ∫ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋(𝑚𝑓1+𝑛𝑓2)𝑇𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

= (∫ ∫ 𝐺𝑠∗(−𝑓2, −𝑓1)𝑒

𝑗2𝜋(𝑚𝑓1+𝑛𝑓2)𝑇𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

)

(22.3.4)

pertanto:

𝐺𝑠(𝑓1, 𝑓2) = 𝐺𝑠∗(−𝑓2, −𝑓1) (22.3.5)

Nel caso di segnale stazionario operando nella (22.3.1) la trasforma-

zione di indici: 𝑙 = 𝑛, 𝑘 = 𝑚 − 𝑛 ed applicando la formula di Poisson

si ottiene:

𝐺𝑠(𝑓1, 𝑓2) = 𝑇2 ∑ ∑ 𝑅𝑠(𝑚𝑇, 𝑛𝑇)𝑒−𝑗2𝜋(𝑚𝑓1+𝑛𝑓2)𝑇

𝑛=−∞

𝑚=−∞

= 𝑇2 ∑ 𝑒−𝑗2𝜋𝑙(𝑓1+𝑓2)𝑇 ∑ 𝑅𝑠(𝑘𝑇)𝑒−𝑗2𝜋𝑘𝑓1𝑇

𝑘=−∞

𝑙=−∞

= 𝑇 ∑ 𝑒−𝑗2𝜋𝑙(𝑓1+𝑓2)𝑇𝑊𝑠(𝑓1)

𝑙=−∞

= 𝑇2𝑊𝑠(𝑓1) ∑ 𝛿 (𝑓1 + 𝑓2 −𝑙

𝑇)

𝑙=−∞

(22.3.6)

dove 𝑊𝑠(𝑓)rappresenta la densità spettrale di potenza del segnale.

Sostituendo la (22.3.3) nella (22.1.11) si ha:

0 ≤ ∑ 𝜙(𝑝)𝜑∗(𝑞)∫ ∫ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋(𝑝𝑓1+𝑞𝑓2)𝑇𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

𝑝,𝑞=−∞

= ∫ ∫ 𝐺𝑠(𝑓1 , 𝑓2) ∑ 𝜙(𝑝)𝑒𝑗2𝜋𝑝𝑓1𝑇 ∑ 𝜑∗(𝑞)𝑒𝑗2𝜋𝑞𝑓2𝑇∞

𝑞=−∞

𝑝=−∞

𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

=1

𝑇2∫ ∫ 𝐺𝑠(𝑓1, 𝑓2)𝛷(−𝑓1)𝛷

∗(𝑓2)𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

(22.3.7)

dove con 𝛷(𝑓) si è denotata la trasformata di Fourier della sequenza

𝜙(𝑛). Se 𝜙(𝑛), e quindi 𝛷(𝑓), è arbitraria la (22.3.7) comporta, analo-

gamente a quanto visto per i segnali a tempo continuo, che

Page 399: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 22 – Caratterizzazione Energetica dei Segnali a Tempo Discreto - 387

𝐺𝑠(−𝑓1, 𝑓2) è una funzione semidefinita positiva. Si può anche verifi-

care che per un segnale stazionario la (22.3.7) comporta che deve es-

sere:

𝑊𝑠(𝑓) ≥ 0 (22.3.8)

la 𝑊𝑠(𝑓) è dunque anche una funzione non negativa della frequenza.

Dalla (22.3.3) si ottiene infine:

𝑅𝑠(𝑛𝑇, 𝑛𝑇) = ∫ ∫ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋𝑛(𝑓1+𝑓2)𝑇𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

(22.3.9)

Se il segnale è stazionario in senso lato si ha:

𝑅𝑠(0) = ∫ 𝑊𝑠(𝑓)𝑑𝑓

1

2𝑇

−1

2𝑇

(22.3.10)

Si osservi che esprimendo nella (22.2.8) la funzione di auto-

correlazione in termini della 𝐺𝑠(𝑓1, 𝑓2) si ottiene:

𝜙𝑠(𝑘𝑇)

= lim𝑁→∞

1

2𝑁 + 1∑ ∫ ∫ 𝐺𝑠(𝑓1, 𝑓2)𝑒

𝑗2𝜋[𝑛𝑓1+(𝑛+𝑘)𝑓2]𝑇𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

𝑁

𝑛=−𝑁

= ∫ ∫ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋𝑘𝑓2𝑇 lim

𝑁→∞

1

2𝑁 + 1∑ 𝑒𝑗2𝜋𝑛(𝑓1+𝑓2)𝑇𝑁

𝑛=−𝑁

𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

(22.3.11)

Poiché risulta:

lim𝑁→∞

1

2𝑁 + 1∑ 𝑒𝑗2𝜋𝑛(𝑓1+𝑓2)𝑇𝑁

𝑛=−𝑁

= {

1; (𝑓1 + 𝑓2)𝑇 ∈ ℕ

lim𝑁→∞

1

2𝑁 + 1

𝑒−𝑗2𝜋𝑁(𝑓1+𝑓2)𝑇 [(𝑒𝑗2𝜋(𝑓1+𝑓2)𝑇)2𝑁+1

− 1]

𝑒𝑗2𝜋(𝑓1+𝑓2)𝑇 − 1= 0; (𝑓1 + 𝑓2)𝑇 ∉ ℕ

(22.3.12)

l’argomento dell’integrale ad ultimo membro della (22.3.11) vale ze-

ro, salvo che sull’insieme di misura nulla costituito dalla famiglia di

rette parallele alla seconda bisettrice spaziate di 1

𝑇.

Il risultato di tale integrale è pertanto nullo a meno che la

𝐺𝑠(𝑓1, 𝑓2) non presenti delle singolarità di tipo delta di Dirac disposte

lungo dette rette.

Si osservi che la 𝐺𝑠(𝑓1, 𝑓2) può sempre esprimersi come somma di

due contributi:

Page 400: Lezioni di TEORIA DEI SEGNALI.pdf

388 Lezioni di Teoria dei Segnali - Analisi dei Segnali Aleatori -

𝐺𝑠(𝑓1, 𝑓2) = 𝛤(𝑓1, 𝑓2) +𝑊𝑠(𝑓2)𝛿(𝑓1 + 𝑓2 −𝑘

𝑇) (22.3.13)

in modo tale che 𝛤(𝑓1, 𝑓2) non presenti contributi distribuzionali lun-

go le rette in questione sostituendo la (22.3.13) nella (22.3.11) tenuto

conto della (22.3.12) si ottiene:

𝜙𝑠(𝑘𝑇) = ∫ ∫ 𝑊𝑠(𝑓2)𝛿(𝑓1 + 𝑓2 −𝑘

𝑇)𝑒𝑗2𝜋𝑘𝑓2𝑇𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

= ∫ 𝑊𝑠(𝑓1)𝑒𝑗2𝜋𝑘𝑓1𝑇𝑑𝑓1

1

2𝑇

−1

2𝑇

(22.3.14)

dalla quale si evince che la densità spettrale di potenza del segnale é

data anche dal peso delle singolarità eventualmente presentate dalla

𝐺𝑠(𝑓1, 𝑓2) lungo la citata famiglia di rette parallele alla seconda biset-

trice del piano (𝒐, 𝑓1, 𝑓2).

Si osservi che l’assenza del contributo distribuzionale alla

𝐺𝑠(𝑓1, 𝑓2), analogamente a quanto visto nel caso dei segnali a tempo

continuo, starebbe a significare che il processo in esame è ad energia

finita.

Le proprietà della 𝐺𝑠(𝑓1, 𝑓2) e della densità spettrale di potenza

sono riassunte nella Tabella 22.2.

Tabella 22.2

Proprietà della Gs ( f1, f2 ) e della Ws ( f ) per segnali a tempo-discreto

Segnali non stazionari Segnali stazionari 𝐺𝑠(𝑓1, 𝑓2)

= 𝑇2 ∑ ∑ 𝑅𝑠(𝑚𝑇, 𝑛𝑇)𝑒−𝑗2𝜋(𝑚𝑓1+𝑛𝑓2)𝑇

𝑛=−∞

𝑚=−∞

𝑊𝑠(𝑓)

= 𝑇 ∑ 𝑅𝑠(𝑘𝑇)𝑒−𝑗2𝜋𝑘𝑓𝑇

𝑘=−∞

𝐺𝑠(𝑓1, 𝑓2) = 𝐺𝑠∗(−𝑓2, −𝑓1) 𝑊𝑠(𝑓) = 𝑊𝑠

∗(𝑓) 𝐺𝑠(−𝑓1 , 𝑓2) è semidefinita positiva 𝑊𝑠(𝑓) ≥ 0

𝑅𝑠(𝑛𝑇, 𝑛𝑇)

= ∫ ∫ 𝐺𝑠(𝑓1, 𝑓2)𝑒𝑗2𝜋𝑛(𝑓1+𝑓2)𝑇𝑑𝑓1𝑑𝑓2

1

2𝑇

−1

2𝑇

1

2𝑇

−1

2𝑇

𝑅𝑠(0) = ∫ 𝑊𝑠(𝑓)𝑑𝑓

1

2𝑇

−1

2𝑇

Page 401: Lezioni di TEORIA DEI SEGNALI.pdf

CAPITOLO - 23

SEGNALI PASSABANDA

Il rumore bianco. 23.1 -

Un segnale aleatorio 𝑛(𝑡, 휁) stazionario la cui densità spettrale

di potenza è costante è comunemente detto rumore bianco. Posto:

𝑊𝑛(𝑓) = 휂 (23.1.1)

Risulta:

∫ 𝑊𝑛(𝑓)𝑑𝑓∞

−∞

= ∞ (23.1.2)

Un tale segnale non è pertanto a potenza finita, esso tuttavia si

rivela molto utile come modello, poiché parecchi disturbi, quali ad e-

sempio il rumore termico che si manifesta ai capi di un conduttore e

il rumore atmosferico, presentano una densità spettrale di potenza

pressoché costante almeno entro la banda di frequenze comunemen-

te utilizzata per trasmettere delle informazioni Nel caso del rumore

termico ad esempio la frequenza alla quale la densità spettrale di po-

tenza si riduce del 10% rispetto al suo valore massimo, che viene

raggiunto per 𝑓 = 0 è dell’ordine di 2000𝐺𝐻𝑧.

La funzione di autocorrelazione del rumore bianco risulta:

𝑅𝑛(𝜏) = 휂𝛿(𝜏) (23.1.3)

Ciò significa che i valori 𝑛(𝑡, 휁) e 𝑛(𝑡 + 𝜏, 휁) assunti dal rumore in 𝑡 e

in 𝑡 + 𝜏 sono fra loro non correlati per ogni valore di 𝜏 ≠ 0.

È in taluni casi utile considerare dei processi caratterizzati da

una densità spettrale di potenza che si mantiene costante in una ban-

da finita di frequenza, e che vale zero al di fuori di essa.

In funzione della dislocazione della banda sopra citata, si parla

di rumore bianco di tipo passa-basso o passa-banda.

-Rumore bianco passabasso. 23.2 -

Si ha in tal caso (v. Fig. 23.1):

Page 402: Lezioni di TEORIA DEI SEGNALI.pdf

- 390 - Analisi dei segnali aleatori

Fig. 23.2 - Funzione di autocorrelazione di un rumo-

re bianco passabasso.

R ()s

12 fm

2fm

𝑊𝑛(𝑓) = 휂⊓ (𝑓

2𝑓𝑚) (23.2.1)

L’autocorrelazione del pro-

cesso si ottiene facilmente anti-

trasformando la precedente:

𝑅𝑛(𝜏)

= 휂∫ 𝑒𝑗2𝜋𝑓𝜏𝑑𝜏𝑓𝑚

−𝑓𝑚

= 2휂𝑓𝑚sinc(2𝑓𝑚𝜏)

(23.2.2)

(vedi Fig. 23.2).

Il segnale in questo caso ha potenza finita che vale:

𝑃𝑛 = 2휂𝑓𝑚 (23.2.3)

Inoltre la 𝑅𝑛(𝜏) é nulla per 𝜏𝑘 =𝑘

2𝑓𝑚, 𝑘 = ±1,±2.

Di conseguenza i

valori assunti dal rumo-

re 𝑛(𝑡, 휁) in corrispon-

denza a coppie d’istanti,

che appartengono al-

l’insieme {𝜏𝑘}, risultano

incorrelati. Tanto più

ampia è la banda 𝑓𝑚 del

segnale, tanto più vicini

sono fra loro tali istanti.

Al limite, per

𝑓𝑚 → ∞, la correlazione

fra i valori che il segnale assume in corrispondenza di due istanti di-

stinti qualsiasi è nulla.

-Rumore bianco passabanda. 23.3 -

Un rumore si dice bianco passabanda se la sua densità spettra-

le di potenza si presenta come mostrato in Fig. 23.3, quindi è del ti-

po:

𝑊𝑛(𝑓) = 휂 [⊓ (𝑓 + 𝑓0𝐵

) +⊓ (𝑓 − 𝑓0𝐵

)] (23.3.1)

dove 𝑓0 =𝑓1+𝑓2

2 e 𝐵 sono rispettivamente la frequenza di centro ban-

da e la banda del rumore.

Fig. 23.1 - Densità spettrale di po-tenza di un rumore bianco passabas-so.

Ws( f )

f f m fm

Page 403: Lezioni di TEORIA DEI SEGNALI.pdf

Segnali passa-banda - 391 -

Fig. 23.4 - Funzione di autocorrelazione di un rumore bianco passa-banda.

Rs ()

2B

L’autocorrelazione in questo caso vale:

𝑅𝑛(𝜏) = 휂 (∫ 𝑒𝑗2𝜋𝑓𝜏𝑑𝜏

−𝑓0+𝐵

2

−𝑓0−𝐵

2

+∫ 𝑒𝑗2𝜋𝑓𝜏𝑑𝜏𝑓0+

𝐵

2

𝑓0−𝐵

2

)

= 2휂𝐵sinc(𝐵𝜏)cos(2𝜋𝑓0𝜏)

(23.3.2)

il suo andamento è riportato in Fig.

23.4, nella quale è stato scelto un va-

lore del rapporto 𝑓0

𝐵 dell’ordine

dell’unità, per chiarirne meglio l’anda-

mento qualitativo. Nella realtà tale va-

lore risulta essere quasi sempre molto

maggiore di 1.

Segnali aleatori passabasso. 23.4 -

Per segnale aleatorio passabasso s’intende un processo 𝑠(𝑡, 휁)

per il quale esiste una frequenza 𝑓𝑚 tale che per ogni valore di 𝑓risulti:

𝑊(𝑓) = 𝑊(𝑓)⊓ (𝑓

2𝑓𝑚) (23.4.1)

Il minimo valore di |𝑓𝑚|che soddisfa la precedente prende il nome di

banda del segnale. Si vuole verifi-care se è possibile estendere ad un se-gnale del tipo an-zidetto il teorema del campionamen-to (vedi CAPITO-LO - 9), nell’ipo-tesi in cui il segnale sia almeno in sen-so lato stazionario. A tal fine si scelga una frequenza 𝑓𝑐 ≥ 2𝑓𝑚 e si co-

struisca il segnale aleatorio:

��(𝑡, 휁) = ∑ 𝑠 (𝑛

𝑓𝑐, 휁) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)]

𝑛=−∞

(23.4.2)

Fig. 23.3 - Densità spettrale di un rumore bianco passabanda

Ws ( f )

f

f1 f 1 f 2 f 2

B

f0

Page 404: Lezioni di TEORIA DEI SEGNALI.pdf

- 392 - Analisi dei segnali aleatori

Occorre in sostanza mostrare che il processo ��(𝑡, 휁) si identi-

fica con il segnale. A tal fine è sufficiente verificare che:

{𝑠(𝑡, 휁) − ��(𝑡, 휁)}2 = 0 (23.4.3)

Risulta:

{𝑠(𝑡, 휁) − ��(𝑡, 휁)}2 = [𝑠(𝑡, 휁)]2 + [��(𝑡, 휁)]2 − 2𝑠(𝑡, 휁)��(𝑡, 휁)

= [𝑠(𝑡, 휁)]2

+ ∑ ∑ 𝑠(𝑘

𝑓𝑐, 휁) 𝑠 (

𝑛

𝑓𝑐, 휁)

sinc [𝑓𝑐 (𝑡 −

𝑘

𝑓𝑐)] sinc [𝑓𝑐 (𝑡

𝑛=−∞

𝑘=−∞

−𝑛

𝑓𝑐)] − 2 ∑ 𝑠(𝑡, 휁)𝑠 (

𝑛

𝑓𝑐, 휁)

sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)]

𝑛=−∞

(23.4.4)

La precedente in virtù dell’ipotizzata stazionarietà può essere ulte-

riormente elaborata:

{𝑠(𝑡, 휁) − ��(𝑡, 휁)}2

= 𝑅𝑠(0) + ∑ 𝑅𝑠 (𝑛 − 𝑘

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑘

𝑓𝑐)] sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)]

𝑘,𝑛=−∞

− 2 ∑ 𝑅𝑠 (𝑡 −𝑛

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)]

𝑛=−∞

= 𝑅𝑠(0)

+ ∑ sinc [𝑓𝑐 (𝑡 −휂

𝑓𝑐)] ∑ 𝑅𝑠 (

𝜈

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

휂 − 𝜈

𝑓𝑐)]

𝜈=−∞

𝜂=−∞

− 2 ∑ 𝑅𝑠 (𝑡 −𝑛

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑛

𝑓𝑐)]

𝑛=−∞

(23.4.5)

Ricordando che, per ipotesi, la trasformata di Fourier della 𝑅𝑠(𝜏) è

nulla per |𝑓| > 𝑓𝑐 risulta ancora:

[{𝑠(𝑡, 휁) − ��(𝑡, 휁)}]2

= 𝑅𝑠(0) + ∑ 𝑅𝑠 (𝑡 −휂

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑓𝑐)]

𝜂=−∞

− 2 ∑ 𝑅𝑠 (𝑡 −𝑛

𝑓𝑐

) sinc [𝑓𝑐(𝑡 −

𝑛

𝑓𝑐

)]

𝑛=−∞

= 𝑅𝑠(0) − ∑ 𝑅𝑠 (𝑡 −휂

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑓𝑐)]

𝜂=−∞

(23.4.6)

Si prenda ora in considerazione la funzione 𝑅𝑠(𝑡 − 𝜏) della va-

riabile 𝜏. Essa per le ipotesi fatte sul processo ammette trasformata di

Fourier in corrispondenza ad ogni valore di 𝑡, inoltre come si evince

Page 405: Lezioni di TEORIA DEI SEGNALI.pdf

Segnali passa-banda - 393 -

facilmente la sua trasformata è nulla per |𝑓| ≥ 𝑓𝑚 pertanto si può

scrivere:

𝑅𝑠(𝑡 − 𝜏) = ∑ 𝑅𝑠 (𝑡 −휂

𝑓𝑐) sinc [𝑓𝑐 (𝜏 −

𝑓𝑐)]

𝜂=−∞

(23.4.7)

Si constata che il secondo membro della precedente, valutato in 𝑡, si

identifica con la sommatoria che compare all’ultimo membro della

(23.4.6), si può quindi concludere che:

[𝑠(𝑡, 휁) − ��(𝑡, 휁)]2

= 𝑅𝑠(0) − ∑ 𝑅𝑠 (𝑡 −휂

𝑓𝑐) sinc [𝑓𝑐 (𝑡 −

𝑓𝑐)]

𝜂=−∞

= 𝑅𝑠(0) − 𝑅𝑠(𝑡 − 𝑡) = 0

(23.4.8)

Pertanto i processi 𝑠(𝑡, 휁) ed ��(𝑡, 휁) individuano in ogni istan-

te, con probabilità 1 , la stessa variabile aleatoria. Essi quindi sono di

fatto due rappresentazioni dello stesso processo.

Quanto appena

dedotto consente di af-

fermare, dal momento

che ogni manifestazione

di ��(𝑡, 휁) è passabasso,

che un segnale aleatorio

passabasso è costituito,

eccetto al più per un

sottoinsieme di manife-

stazioni che hanno pro-

babilità nulla di presentarsi, da manifestazioni di tipo passabasso.

Segnali aleatori passabanda. 23.5 -

Un segnale aleatorio 𝑠(𝑡, 휁), è detto di tipo passabanda se esi-

stono 𝑓1, 𝑓2tali che per ogni valore della frequenza risulti:

𝑊(𝑓) = 𝑊(𝑓) [⊓ (𝑓

2𝑓2) −⊓ (

𝑓

2𝑓1)] (23.5.1)

Si noti che, escludendo il caso banale di una densità spettrale di po-

tenza identicamente nulla, deve essere 0 < |𝑓1| ≤ |𝑓2| < ∞. In altri

termini la (23.5.1) significa che un processo è passabanda se esiste un

intervallo [𝑓1, 𝑓2] ⊂ ℝ+ tale che la densità spettrale di potenza del se-

Fig. 23.5 – Densità spettrale di un segnale di tipo passabanda.

f

Be

Ws ( f )

f1 f2f1-- f2

Page 406: Lezioni di TEORIA DEI SEGNALI.pdf

- 394 - Analisi dei segnali aleatori

gnale sia nulla per |𝑓| ∉ [𝑓1, 𝑓2] (Errore. L'origine riferimento

non è stata trovata.).

Il diametro dell’intervallo [𝑓1, 𝑓2] di ampiezza minima prende il

nome di banda del segnale.

Ad un tale segnale passabanda si può associare anche una fre-

quenza 𝑓0 che generalmente appartiene all’intervallo [𝑓1, 𝑓2]. I criteri

in base ai quali tale frequenza viene scelta dipendono dal tipo di se-

gnale, in particolare dal modo in cui ad esso è associato il contenuto

informativo. Ad esempio si potrebbe assumere la frequenza di centro

banda 𝑓0 =𝑓1+𝑓2

2, ovvero la frequenza in corrispondenza alla quale ri-

sulta massima la densità spettrale di potenza del segnale, o ancora

quella frequenza che, pensando alla densità spettrale di potenza co-

me alla densità di una massa distribuita lungo l’asse delle frequenze,

minimizza il momento d’inerzia della parte a frequenza positiva cioè

che rende minima la quantità:

∫ (𝑓 − 𝑓0)2𝑊(𝑓)𝑑𝑓

0

(23.5.2)

Quest’ultimo criterio si rivela utile, ad esempio, qualora le frequenze

𝑓1, 𝑓2 che delimitano la banda del segnale non siano chiaramente de-

finibili, ovvero quando il segnale non è rigorosamente passabanda

nel senso che non esistono 𝑓1, 𝑓2, ma la potenza risulta comunque, a

meno di una frazione che si può ritenere trascurabile, concentrata in

due intervalli che non contengono l’origine e che, supponendo il se-

gnale reale, sono disposti simmetricamente rispetto ad essa.

In taluni casi è anche utile definire una banda equivalente:

𝐵𝑒 =∫ 𝑊𝑠(𝑓)𝑑𝑓∞

−∞

2𝑊𝑠(𝑓0) (23.5.3)

che corrisponde alla larghezza di banda che dovrebbe avere un ru-

more bianco, con frequenza di centro banda 𝑓0, per esibire la stessa

potenza media del segnale, nell’ipotesi in cui all’interno di tale banda

la densità spettrale del rumore valga 𝑊𝑠(𝑓0). Per questo motivo la 𝐵𝑒,

appena definita, è detta banda equivalente di rumore (vedi Errore. L'o-

rigine riferimento non è stata trovata.).

Se la banda equivalente è molto piccola rispetto ad 𝑓0,

𝐵𝑒 << 𝑓0, il segnale si dirà a banda stretta o quasi monocromatico.

Page 407: Lezioni di TEORIA DEI SEGNALI.pdf

Segnali passa-banda - 395 -

Prendendo le mosse dalla caratterizzazione dei segnali reali de-

terminati di tipo passa-banda (vedi CAPITOLO - 7), si osservi che,

fatta eccezione al più per un insieme di manifestazioni che costitui-

scono un evento che si presenta con probabilità nulla, la generica

manifestazione 𝑠(𝑡, 휁) di un segnale aleatorio passabanda, è cioè, con

probabilità 1, un segnale determinato passabanda. Ad esso corri-

sponde pertanto un segnale analitico 𝑧(𝑡, 휁) = 𝑠(𝑡, 휁) + 𝑗��(𝑡, 휁).

Si è così individuato un segnale aleatorio complesso 𝑧(𝑡, 휁).

Tale processo è caratterizzato da un’autocorrelazione:

𝑅𝑧(𝑡1, 𝑡2) = 𝑧∗(𝑡1, 휁)𝑧(𝑡2, 휁)

= (𝑠(𝑡1, 휁) − 𝑗��(𝑡1, 휁))(𝑠(𝑡2, 휁) + 𝑗��(𝑡2, 휁))

= 𝑠(𝑡1, 휁)𝑠(𝑡2, 휁) + ��(𝑡1, 휁)��(𝑡2, 휁) + 𝑗𝑠(𝑡1, 휁)��(𝑡2, 휁)

− 𝑗��(𝑡1, 휁)𝑠(𝑡2, 휁)

= 𝑅𝑠(𝑡1, 𝑡2) + 𝑅��(𝑡1, 𝑡2) + 𝑗(𝑅��𝑠(𝑡1, 𝑡2) − 𝑅𝑠��(𝑡1, 𝑡2))

(23.5.4)

dove 𝑅𝑠(𝑡1, 𝑡2)rappresenta l’autocorrelazione del segnale, 𝑅��(𝑡1, 𝑡2)

quella del processo ��(𝑡, 휁) anch’esso reale, le cui manifestazioni sono

le trasformate di Hilbert delle corrispondenti manifestazioni di

𝑠(𝑡, 휁), ed 𝑅��𝑠(𝑡1, 𝑡2), 𝑅𝑠��(𝑡1, 𝑡2) rappresentano le correlazioni mutue

tra i due segnali che, come si può constatare facilmente, sono legate

dalla eguaglianza 𝑅��𝑠(𝑡1, 𝑡2) = 𝑅𝑠��(𝑡2, 𝑡1).

Si osservi che, sottintendendo che gli integrali sono effettuati

nel senso del loro valore principale, risulta:

𝑅��(𝑡1, 𝑡2) = ��(𝑡1)��(𝑡2)

=1

𝜋∫

𝑠(𝜏1)

𝑡1 − 𝜏1

−∞

𝑑𝜏11

𝜋∫

𝑠(𝜏2)

𝑡2 − 𝜏2𝑑𝜏2

−∞

=1

𝜋2∫ ∫

𝑠(𝜏1)𝑠(𝜏2)

(𝑡1 − 𝜏1)(𝑡2 − 𝜏2)

−∞

𝑑𝜏1𝑑𝜏2

−∞

=1

𝜋2∫ ∫

𝑅𝑠(𝜏1, 𝜏2)

(𝑡1 − 𝜏1)(𝑡2 − 𝜏2)

−∞

𝑑𝜏1𝑑𝜏2

−∞

(23.5.5)

analogamente per 𝑅��𝑠(𝑡1, 𝑡2) si può scrivere:

𝑅��𝑠(𝑡1, 𝑡2) = 𝑠(𝑡1)��(𝑡2) = 𝑠(𝑡1)1

𝜋∫

𝑠(𝜏)

𝑡2 − 𝜏𝑑𝜏

−∞

=1

𝜋∫

𝑠(𝑡1)𝑠(𝜏)

(𝑡2 − 𝜏)𝑑𝜏

−∞

=1

𝜋∫

𝑅𝑠(𝑡1, 𝜏)

(𝑡2 − 𝜏)𝑑𝜏

−∞

(23.5.6)

Se l’autocorrelazione del segnale 𝑠(𝑡, 휁)dipende soltanto dalla

differenza tra 𝑡2 e 𝑡1 le due equazioni precedenti possono essere ulte-

Page 408: Lezioni di TEORIA DEI SEGNALI.pdf

- 396 - Analisi dei segnali aleatori

riormente elaborate. In particolare, se nell’ultimo membro della

(23.5.5) si effettua la sostituzione di variabili 𝜗 = 𝜏2 − 𝜏1, 𝜐 = 𝜏1, alla

quale corrispondente un determinante Jacobiano pari a −1, si ottie-

ne:

𝑅��(𝑡1, 𝑡2) =1

𝜋2∬

𝑅𝑠(𝜏2 − 𝜏1)

(𝑡1 − 𝜏1)(𝑡2 − 𝜏2)R2

=1

𝜋∫

1

(𝑡1 − 𝜈)[1

𝜋∫

𝑅𝑠(𝜏)

(𝑡2 − 𝜈 − 𝜏)

−∞

𝑑𝜏]𝑑𝜈−∞

=1

𝜋∫

��𝑠(𝑡2 − 𝜈)

(𝑡1 − 𝜈)𝑑𝜈

−∞

=1

𝜋∫

��𝑠(−𝜈′)

(𝑡1 − 𝑡2 − 𝜈′)𝑑𝜈′

−∞

= −1

𝜋∫

��𝑠(𝜈′)

(𝑡1 − 𝑡2 − 𝜈′)𝑑𝜈′

−∞

= 𝑅𝑠(𝑡1 − 𝑡2) = 𝑅𝑠(𝑡2 − 𝑡1)

(23.5.7)

per dedurre la quale si è tenuto conto del fatto che, come si deduce

facilmente, la trasformata di Hilbert di una funzione pari è una fun-

zione dispari del suo argomento.

La (23.5.7) mostra che sotto l’ipotesi sopra introdotta il pro-

cesso ��(𝑡, 휁) ha la stessa autocorrelazione di 𝑠(𝑡, 휁) risulta cioè:

𝑅��(𝜏) = 𝑅𝑠(𝜏) (23.5.8)

Nella stessa ipotesi in virtù della (23.5.6) per 𝑅��𝑠(𝑡1, 𝑡2) si ot-

tiene:

𝑅��𝑠(𝑡1, 𝑡2) =1

𝜋∫

𝑅𝑠(𝜏 − 𝑡1)

(𝑡2 − 𝜏)𝑑𝜏

−∞

=1

𝜋∫

𝑅𝑠(𝜏′)

(𝑡2 − 𝑡1 − 𝜏′)𝑑𝜏′

−∞

= ��𝑠(𝑡2 − 𝑡1) (23.5.9)

in conclusione quindi tenendo anche conto delle condizioni di sim-

metria risulta:

𝑅��𝑠(𝜏) = 𝑅𝑠��(−𝜏) = ��𝑠(𝜏) (23.5.10)

Se il segnale ha valor medio 𝑚𝑠 = 𝑠(𝑡, 휁) indipendente dal

tempo si ha:

z(t, ζ) = s(t, ζ) + js(t, ζ) = ms +j

πVP∫

ms

t − τdτ

−∞

= ms (23.5.11)

dalla quale si evince che risultano indipendenti dal tempo sia il valor

medio di 𝑧(𝑡, 휁) sia quello di ��(𝑡, 휁).

Page 409: Lezioni di TEORIA DEI SEGNALI.pdf

Segnali passa-banda - 397 -

Se si prendono in considerazione segnali passabanda staziona-

ri almeno in senso lato, tenendo conto delle (23.5.8) e (23.5.10), dalla

(23.5.4) si ottiene:

𝑅𝑧(𝑡1, 𝑡2)= 𝑅𝑠(𝑡1, 𝑡2) + 𝑅��(𝑡1, 𝑡2) + 𝑗(𝑅��𝑠(𝑡1, 𝑡2) − 𝑅𝑠��(𝑡1, 𝑡2))= 𝑅𝑠(𝑡2 − 𝑡1) + 𝑅𝑠(𝑡2 − 𝑡1) + 𝑗(��𝑠(𝑡2 − 𝑡1) − ��𝑠(𝑡1− 𝑡2)) = 2𝑅𝑠(𝑡2 − 𝑡1) + 2𝑗��𝑠(𝑡2 − 𝑡1)

(23.5.12)

Dalle precedenti si conclude che se il segnale è stazionario in senso

lato tali risultano essere sia 𝑧(𝑡, 휁) sia ��(𝑡, 휁).

Ciò posto, se al segnale passabanda, che in quel che segue si

suppone stazionario almeno in senso lato, si associa una frequenza

𝑓0, resta definito il segnale aleatorio:

𝑤(𝑡, 휁) = 𝑧(𝑡, 휁)𝑒−𝑗2𝜋𝑓0𝑡 (23.5.13)

le cui manifestazioni sono cioè gli inviluppi complessi delle corri-

spondenti manifestazioni del segnale 𝑠(𝑡, 휁).

Tenuto conto del legame tra 𝑠(𝑡, 휁) e 𝑧(𝑡, 휁) e della precedente

si può scrivere:

𝑠(𝑡, 휁) = Re[𝑤(𝑡, 휁)𝑒𝑗2𝜋𝑓0𝑡] (23.5.14)

La precedente, dette 𝑠𝑓(𝑡, 휁) = Re[𝑤(𝑡, 휁)] ed 𝑠𝑞(𝑡, 휁) = Im[𝑤(𝑡, 휁)]

rispettivamente le componenti in fase ed in quadratura della generica

manifestazione del segnale, è soggetta ad essere ulteriormente elabo-

rata fornendo:

𝑠(𝑡, 휁) = 𝑠𝑓(𝑡, 휁)cos2𝜋𝑓0𝑡 − 𝑠𝑞(𝑡, 휁)𝑠𝑖𝑛2𝜋𝑓0𝑡 (23.5.15)

Volendo caratterizzare i due processi s f (t,) ed sq (t,) , è utile

esprimerli in termini del segnale e della sua trasformata di Hilbert,

una tale rappresentazione si ottiene facilmente dalla (23.5.14):

𝑠𝑓(𝑡, 휁) = Re[𝑤(𝑡, 휁)] = Re[𝑧(𝑡, 휁)𝑒

−𝑗2𝜋𝑓0𝑡]

= 𝑠(𝑡, 휁)cos2𝜋𝑓0𝑡 + ��(𝑡, 휁)𝑠𝑖𝑛2𝜋𝑓0𝑡 (23.5.16)

Analogamente per 𝑠𝑞(𝑡, 휁)si ha:

𝑠𝑞(𝑡, 휁) = Im[𝑧(𝑡, 휁)𝑒−𝑗2𝜋𝑓0𝑡]

= ��(𝑡, 휁)cos2𝜋𝑓0𝑡 − 𝑠(𝑡, 휁)𝑠𝑖𝑛2𝜋𝑓0𝑡 (23.5.17)

L’autocorrelazione 𝑅𝑠𝑓(𝑡1, 𝑡2) di 𝑠𝑓(𝑡, 휁), se 𝑠(𝑡, 휁) è stazio-

nario in senso lato, vale:

Page 410: Lezioni di TEORIA DEI SEGNALI.pdf

- 398 - Analisi dei segnali aleatori

𝑅𝑠𝑓(𝑡, 𝑡 + 𝜏)

= 𝐸{(𝑠(𝑡, 휁)cos2𝜋𝑓0𝑡 + ��(𝑡, 휁)sin2𝜋𝑓0𝑡 𝑠(𝑡 + 𝜏, 휁)cos2𝜋𝑓0(𝑡 + 𝜏)+ ��(𝑡 + 𝜏, 휁)sin2𝜋𝑓0(𝑡 + 𝜏))}= 𝑅𝑠(𝜏)cos2𝜋𝑓0𝑡cos2𝜋𝑓0(𝑡 + 𝜏) + 𝑅𝑠��(𝜏)sin2𝜋𝑓0𝑡cos2𝜋𝑓0(𝑡 + 𝜏)+ +𝑅��𝑠(𝜏)cos2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏) + 𝑅𝑠(𝜏)sin2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏)= 𝑅𝑠(𝜏)(cos2𝜋𝑓0𝑡cos2𝜋𝑓0(𝑡 + 𝜏) + sin2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏))+ 𝑅𝑠��(𝜏)(sin2𝜋𝑓0𝑡cos2𝜋𝑓0(𝑡 + 𝜏) − cos2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏)) = = 𝑅𝑠(𝜏)cos2𝜋𝑓0𝜏 − 𝑅𝑠��(𝜏)sin2𝜋𝑓0𝜏= 𝑅𝑠(𝜏)cos2𝜋𝑓0𝜏 + ��𝑠(𝜏)sin2𝜋𝑓0𝜏

(23.5.18)

dove le varie funzioni di correlazione sono state per comodità

espresse in termini delle variabili 𝑡 = 𝑡1e 𝜏 = 𝑡2 − 𝑡1, analogamente

per 𝑅𝑠𝑞(𝑡1, 𝑡2)si ha:

𝑅𝑠𝑞(𝑡, 𝑡 + 𝜏)

= 𝐸{(��(𝑡, 휁)cos2𝜋𝑓0𝑡 − 𝑠(𝑡, 휁)sin2𝜋𝑓0𝑡)(��(𝑡 + 𝜏, 휁)cos2𝜋𝑓0(𝑡 + 𝜏)− 𝑠(𝑡 + 𝜏, 휁)sin2𝜋𝑓0(𝑡 + 𝜏))}= 𝑅𝑠(𝜏)sin2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏) − 𝑅𝑠��(𝜏)cos2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏)− 𝑅��𝑠(𝜏)sin2𝜋𝑓0𝑡cos2𝜋𝑓0(𝑡 + 𝜏) + 𝑅𝑠(𝜏)cos2𝜋𝑓0𝑡cos2𝜋𝑓0(𝑡 + 𝜏)= 𝑅𝑠(𝜏)(𝑠𝑖𝑛2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏) + cos2𝜋𝑓0𝑡cos2𝜋𝑓0(𝑡 + 𝜏))− 𝑅��𝑠(𝜏)(sin2𝜋𝑓0𝑡cos2𝜋𝑓0(𝑡 + 𝜏) − cos2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏))= 𝑅𝑠(𝜏)cos2𝜋𝑓0𝜏 − 𝑅𝑠��(𝜏)sin2𝜋𝑓0𝜏= 𝑅𝑠(𝜏)cos2𝜋𝑓0𝜏 + ��𝑠(𝜏)sin2𝜋𝑓0𝜏

(23.5.19)

Si è quindi giunti all’importante conclusione che le funzioni di autocorrelazione di 𝑠𝑓(𝑡, 휁) ed 𝑠𝑞(𝑡, 휁) sono uguali e dipendono

esclusivamente dalla differenza tra gli istanti di osservazione, risulta cioè:

𝑅𝑠𝑓(𝜏) = 𝑅𝑠𝑞(𝜏) = 𝑅𝑠(𝜏)cos2𝜋𝑓0𝜏 + ��𝑠(𝜏)𝑠𝑖𝑛2𝜋𝑓0𝜏 (23.5.20)

Quanto appena detto, non è tuttavia sufficiente per affermare

che i due processi in questione sono stazionari in senso lato. Occor-

rerebbe infatti verificare che i loro valori medi siano indipendenti dal

tempo.

Osservando le (23.5.16) e (23.5.17) ci si convince che la sta-

zionarietà in senso lato di 𝑠(𝑡, 휁) non comporta il fatto che il valor

medio di 𝑠𝑓(𝑡, 휁) ed 𝑠𝑞(𝑡, 휁) sia indipendente dal tempo, a meno che

il valor medio di 𝑠(𝑡, 휁)non sia nullo.

Per quanto riguarda le funzioni di mutua correlazione

𝑅𝑠𝑓𝑠𝑞(𝑡1, 𝑡2)ed 𝑅𝑠𝑞𝑠𝑓(𝑡1, 𝑡2)si ha:

Page 411: Lezioni di TEORIA DEI SEGNALI.pdf

Segnali passa-banda - 399 -

𝑅𝑠𝑓𝑠𝑞(𝑡, 𝑡 + 𝜏) = 𝑠𝑞(𝑡, 휁)𝑠𝑓(𝑡 + 𝜏, 휁)

= 𝐸{(��(𝑡, 휁)cos2𝜋𝑓0𝑡 − 𝑠(𝑡, 휁)sin2𝜋𝑓0𝑡)(𝑠(𝑡 + 𝜏, 휁)cos2𝜋𝑓0(𝑡 + 𝜏)+ ��(𝑡 + 𝜏, 휁)sin2𝜋𝑓0(𝑡 + 𝜏))}= −��𝑠(𝜏)(cos2𝜋𝑓0𝑡1cos2𝜋𝑓0(𝑡 + 𝜏) + sin2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏))+ 𝑅𝑠(𝜏)(cos2𝜋𝑓0𝑡sin2𝜋𝑓0(𝑡 + 𝜏) − sin2𝜋𝑓0𝑡cos2𝜋𝑓0(𝑡 + 𝜏))= −��𝑠(𝜏)cos2𝜋𝑓0(𝜏) + 𝑅𝑠(𝜏)sin2𝜋𝑓0𝜏

(23.5.21)

In virtù delle condizioni di simmetria si ottiene facilmente:

𝑅𝑠𝑞𝑠𝑓(𝜏) = 𝑠𝑓(𝑡, 휁)𝑠𝑞(𝑡 + 𝜏, 휁)

= ��𝑠(𝜏)cos2𝜋𝑓0(𝜏) − 𝑅𝑠(𝜏)sin2𝜋𝑓0(𝜏) = −𝑅𝑠𝑓𝑠𝑞(𝜏) (23.5.22)

dalla quale si deduce, tra l’altro, che𝑅𝑠𝑞𝑠𝑓(𝜏) è una funzione dispari.

È adesso possibile ricavare l’autocorrelazione 𝑅𝑤(𝑡1, 𝑡2) del-

l’inviluppo complesso del segnale in termini delle funzioni di correla-

zione delle componenti in fase ed in quadratura:

𝑅𝑤(𝑡, 𝑡 + 𝜏)= (𝑠𝑓(𝑡, 휁) − 𝑗𝑠𝑞(𝑡, 휁))(𝑠𝑓(𝑡 + 𝜏, 휁) + 𝑗𝑠𝑞(𝑡 + 𝜏, 휁))

= 𝑅𝑠𝑓(𝜏) + 𝑅𝑠𝑞(𝜏) + 𝑗(𝑅𝑠𝑞𝑠𝑓(𝜏) − 𝑅𝑠𝑓𝑠𝑞(𝜏))

= 2𝑅𝑠𝑓(𝜏) + 𝑗2𝑅𝑠𝑞𝑠𝑓(𝜏)

(23.5.23)

che, come era prevedibile, dipende ancora una volta soltanto da 𝜏.

Dalla precedente utilizzando le (23.5.20) e (23.5.21) si ottiene:

𝑅𝑤(𝜏)= 2(𝑅𝑠(𝜏)cos2𝜋𝑓0𝜏 + ��𝑠(𝜏)sin2𝜋𝑓0𝜏)+ 𝑗2(��𝑠(𝜏)cos2𝜋𝑓0(𝜏) − 𝑅𝑠(𝜏)sin2𝜋𝑓0(𝜏))= 2[(𝑅𝑠(𝜏) + 𝑗��𝑠(𝜏))cos2𝜋𝑓0𝜏 − 𝑗(𝑅𝑠(𝜏)+ 𝑗��𝑠(𝜏))sin2𝜋𝑓0𝜏] = 𝑅𝑧(𝜏)𝑒

−𝑗2𝜋𝑓0𝜏

(23.5.24)

Inoltre eliminando ��𝑠(𝜏) tra la (23.5.18) e la (23.5.23) si ottie-

ne l’espressione dell’autocorrelazione del segnale 𝑅𝑠(𝜏) in termini di

𝑅𝑠𝑓(𝜏) ed 𝑅𝑠𝑞𝑠𝑓(𝜏):

𝑅𝑠(𝜏) = 𝑅𝑠𝑓(𝜏)cos2𝜋𝑓0(𝜏) − 𝑅𝑠𝑞𝑠𝑓(𝜏)sin2𝜋𝑓0𝜏 (23.5.25)

Se il segnale oltre ad essere stazionario in senso lato ha anche

valor medio nullo dalla precedente si deduce:

𝑅𝑠𝑓(0) = 𝑅𝑠𝑞(0) = 𝑅𝑠(0) ≡ 𝜎2 (23.5.26)

cioè le componenti in fase e in quadratura presentano la stessa va-

rianza di 𝑠(𝑡, 휁).

Page 412: Lezioni di TEORIA DEI SEGNALI.pdf

- 400 - Analisi dei segnali aleatori

Dalla (23.5.21) si deduce facilmente che 𝑅𝑠𝑓𝑠𝑞(𝜏), e quindi an-

che 𝑅𝑠𝑞𝑠𝑓(𝜏), è una funzione dispari pertanto essa deve essere nulla

per 𝜏 = 0 risulta cioè:

𝑅𝑠𝑓𝑠𝑞(0) = 𝑅𝑠𝑞𝑠𝑓(0) = 0 (23.5.27)

le componenti in fase ed in quadratura osservate in uno stesso istante

individuano due variabili aleatorie incorrelate.

In Conclusione si è pervenuti ai seguenti risultati: se un segna-

le aleatorio passabanda è stazionario almeno in senso lato tale risulta

il segnale analitico ad esso associato; se inoltre il segnale ha anche va-

lor medio nullo, allora sono stazionarie in senso lato ed a media nulla

anche le sue componenti in fase ed in quadratura, e, come si evince

facilmente, il suo inviluppo complesso, indipendentemente dal valore

scelto per la𝑓0 alla quale detti segnali sono riferiti. Le componenti in

fase ed in quadratura sono anche congiuntamente stazionarie e han-

no uguale funzione di autocorrelazione, inoltre la loro varianza coin-

cide con quella del segnale.

Si vuole a questo punto indagare su come si riflettano le rela-

zioni appena dedotte tra le varie funzioni di auto e mutua correlazio-

ne dei processi legati ad un segnale passabanda (a media nulla, sta-

zionario in senso lato) sulle corrispondenti densità spettrali di poten-

za.

A tal fine innanzi tutto si osservi che la funzione di autocorre-

lazione di 𝑧(𝑡, 휁) assume forma analoga a quella di un segnale analiti-

co associato ad un segnale passabasso reale. La trasformata di Fou-

rier di detta autocorrelazione assume pertanto valori non nulli solo

per valori di frequenza maggiori di zero, e per tali valori coincide con

il doppio della trasformata di Fourier della sua parte reale. Nel caso

in esame quest’ultima è il doppio della funzione di autocorrelazione

di 𝑠(𝑡, 휁), la cui trasformata di Fourier è la densità spettrale di poten-

za 𝑊(𝑓) del segnale. La densità spettrale di potenza di 𝑧(𝑡, 휁) vale

pertanto:

𝑊𝑧(𝑓) = 4𝑊𝑠(𝑓)u(𝑓) (23.5.28)

essa è pari, cioè, a quattro volte la densità spettrale di potenza del se-

gnale per frequenze positive ed è nulla per frequenze negative.

Page 413: Lezioni di TEORIA DEI SEGNALI.pdf

Segnali passa-banda - 401 -

Tenuto conto della precedente si deduce facilmente la densità spettrale dell’inviluppo complesso:

𝑊𝑤(𝑓) = 𝑊𝑧(𝑓) ∗ 𝛿(𝑓 − 𝑓0) = 4𝑊𝑠(𝑓 + 𝑓0)u(𝑓 + 𝑓0) (23.5.29)

che, ci si convince facilmente, può essere non nulla solo per valori di

frequenza appartenenti all’intervallo [𝑓1 − 𝑓0, 𝑓2 − 𝑓0], questa conside-

razione si traduce nel fatto che l’inviluppo complesso è un segnale

passabasso tutte le volte che si sceglie una 𝑓0 appartenente all’inter-

vallo[𝑓1, 𝑓2].

D’altro canto si può anche esprimere la 𝑊𝑤(𝑓) trasformando

la (23.5.23) in questo caso si ottiene:

𝑊𝑤(𝑓) = ℱ[2𝑅𝑠𝑓(𝜏) + 𝑗2𝑅𝑠𝑞𝑠𝑓(𝜏)]

= 2𝑊𝑠𝑓(𝑓) + 𝑗2𝑊𝑠𝑞𝑠𝑓(𝑓) (23.5.30)

dove 𝑊𝑠𝑓(𝑓) e 𝑊𝑠𝑞𝑠𝑓(𝑓), rappresentano rispettivamente la densità

spettrale di potenza della componente in fase e la densità spettrale

incrociata tra le componenti in fase ed in quadratura associate al se-

gnale. Risulta evidentemente:

𝑊𝑠𝑓(𝑓) = 𝑊𝑠𝑞(𝑓),𝑊𝑠𝑞𝑠𝑓(𝑓) = −𝑊𝑠𝑓𝑠𝑞(𝑓) (23.5.31)

inoltre 𝑊𝑠𝑓(𝑓) è una funzione reale pari, mentre, in quanto trasfor-

mata di una funzione reale dispari, 𝑊𝑠𝑞𝑠𝑓(𝑓) è una funzione pura-

mente immaginaria dispari.

La (23.5.30) costituisce cioè la decomposizione della funzione

reale 𝑊𝑤(𝑓) nella sua parte pari, 2𝑊𝑠𝑓(𝑓), e nella sua parte dispari

𝑗2𝑊𝑠𝑞𝑠𝑓(𝑓).

Quest’ultima osservazione consente innanzitutto di affermare

che anche 𝑊𝑠𝑓(𝑓) e 𝑊𝑠𝑞𝑠𝑓(𝑓) possono assumere valore non nullo sol-

tanto in corrispondenza a frequenze appartenenti all’intervallo

[𝑓1 − 𝑓0, 𝑓2 − 𝑓0].

Inoltre nel caso particolare in cui 𝑊𝑤(𝑓) è una funzione pari

deve necessariamente essere 𝑊𝑠𝑞𝑠𝑓(𝑓) = 0. Ciò implica 𝑅𝑠𝑞𝑠𝑓(𝜏) = 0,

cioè che le componenti in fase ed in quadratura del segnale risultano

incorrelate. Ci si convince facilmente che, in virtù delle (23.5.28) e

(23.5.29), affinché 𝑊𝑤(𝑓) sia pari, 𝑊(𝑓)u(𝑓)deve essere simmetrica

rispetto a 𝑓0.

Page 414: Lezioni di TEORIA DEI SEGNALI.pdf

- 402 - Analisi dei segnali aleatori

In questo caso il processo 𝑤(𝑡, 휁) sarebbe reale di tipo passa-

basso, e la sua funzione di autocorrelazione coinciderebbe con il

doppio di quella della componente in fase o, che è lo stesso, della

componente in quadratura del segnale, che sarebbero anch’essi dei

processi passabasso.

Segnali gaussiani. 23.6 -

Sia 𝑛(𝑡, 휁) un segnale reale, gaussiano, stazionario passabanda

caratterizzato da un valor medio nullo e da una densità spettrale pari

a 𝑊𝑛(𝑓). Esso, per, quanto visto al paragrafo precedente, può essere

posto nella forma:

𝑛(𝑡, 휁) = 𝑛𝑓(𝑡, 휁)cos2𝜋𝑓0𝑡 − 𝑛𝑞(𝑡, 휁)sin2𝜋𝑓0𝑡 (23.6.1)

o alternativamente:

𝑛(𝑡, 휁) = 𝑉(𝑡, 휁)cos[2𝜋𝑓0𝑡 − 𝜗(𝑡, 휁)] (23.6.2)

dove:

{

𝑉(𝑡, 휁) = √𝑛𝑓

2(𝑡, 휁) + 𝑛𝑞2(𝑡, 휁)

𝜗(𝑡, 휁) = arctang𝑛𝑞(𝑡, 휁)

𝑛𝑓(𝑡, 휁)

(23.6.3)

rappresentano l'ampiezza (o inviluppo) e la fase istantanei di 𝑛(𝑡, 휁).

Richiamando le conclusioni tratte al paragrafo precedente, le

componenti in fase e in quadratura di 𝑛(𝑡, 휁) (vedi (23.5.16)

(23.5.17)) possono essere espresse in termini del segnale stesso e del-

la sua trasformata di Hilbert ��(𝑡, 휁). Dal momento che ��(𝑡, 휁) è otte-

nuto da 𝑛(𝑡, 휁) mediante una trasformazione lineare, anche 𝑛𝑓(𝑡, 휁) e

𝑛𝑞(𝑡, 휁) dipendono linearmente da 𝑛(𝑡, 휁). Ciò comporta che se

𝑛(𝑡, 휁) è un segnale gaussiano, lo sono pure le sue componenti in fa-

se e in quadratura. Per caratterizzare statisticamente 𝑛𝑓(𝑡, 휁) e

𝑛𝑞(𝑡, 휁) è sufficiente quindi valutarne il valor medio e la varianza.

Dal momento che si è ipotizzato nullo il valor medio del se-

gnale risulta:

𝑛𝑓(𝑡, 휁) = 𝑛𝑞(𝑡, 휁) = 𝑛(𝑡, 휁) = 0 (23.6.4)

ed in virtù della stazionarietà si ha anche:

Page 415: Lezioni di TEORIA DEI SEGNALI.pdf

Segnali passa-banda - 403 -

𝑛𝑓2(𝑡, 휁) = 𝑛𝑞

2(𝑡, 휁) = 𝑛2(𝑡, 휁) = 𝜎2 = ∫ 𝑊𝑛(𝑓)𝑑𝑓∞

−∞

(23.6.5)

Inoltre:

𝑛𝑓(𝑡, 휁)𝑛𝑞(𝑡, 휁) = 𝑅𝑞𝑓(0) = 0 (23.6.6)

Ciò significa che i processi 𝑛𝑓(𝑡, 휁) e 𝑛𝑞(𝑡, 휁), essendo gaussiani, va-

lutati in uno stesso istante individuano una coppia di variabili aleato-

rie statisticamente indipendenti.

Si può scrivere allora:

𝑝𝑛𝑓(𝑡),𝑛𝑞(𝑡)(𝑥, 𝑦) = 𝑝𝑛𝑓(𝑡)(𝑥) ⋅ 𝑝𝑛𝑞(𝑡)(𝑦) =1

2𝜋𝜎2𝑒−𝑥2+𝑦2

2𝜎2 (23.6.7)

la quale può essere espressa in termini delle variabili aleatorie 𝑉 e 𝜗,

definite dalla (IX.4.3). A tal fine, operando la trasformazione:

{𝑥 = 𝜌cos𝜈𝑦 = 𝜌sin𝜈 − 𝜋 ≤ 𝜈 ≤ 𝜋 (23.6.8)

ed eguagliare le probabilità con cui si verifica un evento elementare

sia che venga riferito al sistema di coordinate (𝑂, 𝑥, 𝑦) sia al sistema

di coordinate polari appena introdotto. Si può scrivere:

𝑝𝑛𝑓(𝑡),𝑛𝑞(𝑡)(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = 𝑝𝑛𝑓(𝑡),𝑛𝑞(𝑡)(𝜌cos𝜈, 𝜌sin𝜈)|𝐽|𝑑𝜌𝑑𝜈 (23.6.9)

dove |𝐽| è lo Jacobiano della trasformazione (23.6.8) che vale come è

noto 𝜌.

La 𝑝𝑉(𝑡),𝜗(𝑡)(𝜌, 𝜈) assume come si deduce facilmente la forma:

𝑝𝑉(𝑡),𝜗(𝑡)(𝜌, 𝜈) = 𝑝𝑛𝑓(𝑡),𝑛𝑞(𝑡)(𝜌cos𝜈, 𝜌sin𝜈)|𝐽|

=1

2𝜋𝑟𝑒𝑐𝑡(

𝜈

2𝜋)𝜌

𝜎2𝑒−𝜌2

2𝜎2𝑢(𝜌) (23.6.10)

che, come si constata facilmente, si può esprimere come prodotto di

una funzione della sola variabile 𝜌 e di una della sola 𝜈. Le due varia-

bili individuate in uno stesso istante dai segnali definiti nella (23.6.3)

sono anch’esse statisticamente indipendenti, in particolare si constata

che la densità di probabilità della fase istantanea 𝜗(𝑡, 휁) è uniforme in

[−𝜋, 𝜋], mentre la densità di probabilità di 𝑉(𝑡, 휁) che vale:

𝑝𝑉(𝑡)(𝜌) =𝜌

𝜎2𝑒−𝜌2

2𝜎2u(𝜌) (23.6.11)

è di Rayleigh.

Page 416: Lezioni di TEORIA DEI SEGNALI.pdf

- 404 - Analisi dei segnali aleatori

Segnale gaussiano a banda stretta sovrapposto a 23.7 - un segnale deterministico di tipo sinusoidale.

Sia 𝑠(𝑡, 휁) un segnale aleatorio della forma:

𝑠(𝑡, 휁) = 𝐴cos(2𝜋𝑓0𝑡 + 𝜑) + 𝑛(𝑡, 휁) (23.7.1)

in cui 𝑛(𝑡, 휁) è un rumore gaussiano a banda stretta, stazionario a va-

lor medio nullo e varianza 𝜎2, 𝜑 è una variabile casuale uniforme-

mente distribuita in [−𝜋, 𝜋] e indipendente dal segnale 𝑛(𝑡, 휁).

Adottando per 𝑛(𝑡, 휁) la rappresentazione fornita dalla (23.5.1) si

può scrivere:

𝑠(𝑡, 휁)= 𝐴cos(2𝜋𝑓0𝑡 + 𝜑) + 𝑛𝑓cos2𝜋𝑓0𝑡(𝑡, 휁)cos2𝜋𝑓0𝑡

− 𝑛𝑞(𝑡, 휁)𝑠𝑖𝑛2𝜋𝑓0𝑡

= (𝐴cos𝜑 + 𝑛𝑓(𝑡, 휁))cos2𝜋𝑓0𝑡 − (𝐴𝑠𝑖𝑛𝜑

+ 𝑛𝑞(𝑡, 휁))𝑠𝑖𝑛2𝜋𝑓0𝑡

(23.7.2)

quest’ultima si lascia facilmente scrivere secondo la forma (23.5.14):

𝑠(𝑡, 휁) = Re[𝑤(𝑡, 휁)𝑒𝑗2𝜋𝑓0𝑡] (23.7.3)

nella quale l'inviluppo d’ampiezza |𝑤(𝑡, 휁)| è dato da:

|𝑤(𝑡, 휁)| = √[𝑠𝑓(𝑡, 휁)]2 + [𝑠𝑞(𝑡, 휁)]

2 (23.7.4)

nella quale si è posto:

{𝑠𝑓(𝑡, 휁) = 𝐴cos𝜑 + 𝑛𝑓(𝑡, 휁)

𝑠𝑞(𝑡, 휁) = 𝐴𝑠𝑖𝑛𝜑 + 𝑛𝑞(𝑡, 휁) (23.7.5)

Detta 𝜗(𝑡, 휁) la fase istantanea di 𝑠(𝑡, 휁) risulta:

𝜗(𝑡, 휁) = arctang𝑠𝑞(𝑡, 휁)

𝑠𝑓(𝑡, 휁)= arctang

𝐴cos𝜑 + 𝑛𝑓(𝑡, 휁)

𝐴𝑠𝑖𝑛𝜑 + 𝑛𝑞(𝑡, 휁) (23.7.6)

Le (23.7.5), possono anche essere facilmente scritte in termini

di |𝑤(𝑡, 휁)| e di 𝜗(𝑡, 휁):

{𝑠𝑓(𝑡, 휁) = |𝑤(𝑡, 휁)|cos𝜗(𝑡, 휁) = Re[𝑤(𝑡, 휁)]

𝑠𝑞(𝑡, 휁) = |𝑤(𝑡, 휁)|sin𝜗(𝑡, 휁) = Im[𝑤(𝑡, 휁)] (23.7.7)

Tenendo conto delle (23.6.4), si ottiene:

{𝑛𝑓(𝑡, 휁) = 𝑠𝑓(𝑡, 휁) − 𝐴cos𝜑 = |𝑤(𝑡, 휁)|cos𝜗(𝑡, 휁) − 𝐴cos𝜑

𝑛𝑞(𝑡, 휁) = 𝑠𝑞(𝑡, 휁) − 𝐴sin𝜑 = |𝑤(𝑡, 휁)|sin𝜗(𝑡, 휁) − 𝐴sin𝜑 (23.7.8)

Page 417: Lezioni di TEORIA DEI SEGNALI.pdf

Segnali passa-banda - 405 -

Dal momento che i segnali 𝑛𝑓(𝑡, 휁) e 𝑛𝑞(𝑡, 휁) sono gaussiani,

stazionari, a valor medio nullo e varianza 𝜎2, la densità di probabilità

congiunta 𝑝𝑛𝑓(𝑡),𝑛𝑞(𝑡),𝜑(𝑥, 𝑦, 𝜈) si può scrivere nella forma:

𝑝𝑛𝑓(𝑡),𝑛𝑞(𝑡),𝜑(𝑥, 𝑦, 𝜈) = 𝑝𝑛𝑓(𝑡)(𝑥) ⋅ 𝑝𝑛𝑞(𝑡)(𝛽) ⋅ 𝑝𝜑(𝜈)

=1

4𝜋2𝜎2𝑒−𝑥2+𝑦2

2𝜎2 ⊓ (𝜈

2𝜋)

(23.7.9)

data la ipotizzata statistica indipendenza della fase 𝜑 sia da 𝑛𝑓 che da

𝑛𝑞.

Tenendo conto della (23.6.8), si può finalmente determinare la

densità di probabilità incrociata 𝑝|𝑤(𝑡)|,𝜗(𝑡),𝜑(𝜌, 𝛾, 𝜈). Risulta:

𝑝|𝑤(𝑡)|,𝜗(𝑡),𝜑(𝜌, 𝛾, 𝜈)

=𝜌

4𝜋2𝜎2𝑒−𝜌2+𝐴2−2𝜌𝐴cos(𝜈−𝛾)

2𝜎2 u(𝜌)⊓ (𝛾

2𝜋)⊓ (

𝜈

2𝜋)

(23.7.10)

Per ottenere la densità di probabilità del primo ordine dell'in-

viluppo |𝑤(𝑡, 휁)| occorre marginalizzare la precedente rispetto alle

variabili 𝜑 e 𝜗. Si ha:

𝑝|𝑤(𝑡)|(𝜌) = ∬ 𝑝|𝑤(𝑡)|,𝜗(𝑡),𝜑(𝜌, 𝛾, 𝜈)𝑑𝛾𝑑𝜈R2

=𝜌

4𝜋2𝜎2𝑒−𝜌2+𝐴2

2𝜎2 u(𝜌)∫ ∫ 𝑒𝜌𝐴cos(𝜈−𝛾)

𝜎2 𝑑𝛾𝑑𝜈2𝜋

0

2𝜋

0

(23.7.11)

L’integrale più interno dell’ultimo membro della precedente vale:

∫ 𝑒𝐴𝜌

𝜎2cos(𝜈−𝛾)

𝑑𝛾2𝜋

0

= 2𝜋𝐼0 (𝐴𝜌

𝜎2) (23.7.12)

dove 𝐼0(𝑥) denota la funzione di Bessel modificata di prima specie

di ordine zero. Si ottiene così

𝑝|𝑤(𝑡)|(𝜌) =𝜌

4𝜋2𝜎2𝑒−𝜌2+𝐴2

2𝜎2 𝑢(𝜌)∫ 2𝜋𝐼0(𝐴𝜌

𝜎2)

2𝜋

0

𝑑𝜈

=𝜌

𝜎2𝑒−𝜌2+𝐴2

2𝜎2 𝐼0(𝐴𝜌

𝜎2)𝑢(𝜌)

(23.7.13)

nota come distribuzione di Rice o di Rayleigh generalizzata.

Page 418: Lezioni di TEORIA DEI SEGNALI.pdf

- 406 - Analisi dei segnali aleatori

Definendo la variabile aleatoria normalizzata 𝛬 =𝑤

𝜎 e intro-

ducendo il parametro 𝛼 =𝐴

𝜎, la densità di probabilità della variabile

aleatoria 𝛬 in funzione del parametro 𝛼 può ancora essere riscritta:

𝑝𝛬(𝜆) = 𝜆𝑒−1

2(𝛼2+𝜆2)𝐼0(𝛼𝜆)𝑢(𝜆) (23.7.14)

il cui andamento in corrispondenza a diversi valori del parametro

è riportato in Fig. 23.6

Se si marginalizza la (IX.4.10) rispetto a |𝑤(𝑡)|, si ottiene la

densità di probabilità incrociata tra la fase istantanea del rumore 𝜗(𝑡)

e 𝜑:

𝑝𝜗(𝑡),𝜑(𝛾, 𝜈)

= ∫𝜌

4𝜋2𝜎2𝑒−𝜌2+𝐴2−2𝜌𝐴cos(𝜈−𝛾)

2𝜎2 ⊓ (𝛾

2𝜋)⊓ (

𝜈

2𝜋)

0

𝑑𝜌

=⊓ (

𝛾

2𝜋)⊓ (

𝜈

2𝜋)

4𝜋2𝜎2∫ 𝜌𝑒

−𝜌2+𝐴2−2𝜌𝐴cos(𝜈−𝛾)

2𝜎2

0

𝑑𝜌

=⊓ (

𝛾

2𝜋)⊓ (

𝜈

2𝜋)

4𝜋2𝜎2𝑒−𝐴2sin2(𝜈−𝛾)

2𝜎2 ∫ 𝜌𝑒−(𝜌−𝐴cos(𝜈−𝛾))2

2𝜎2

0

𝑑𝜌

(23.7.15)

Quest’ultima è suscettibile dell’ulteriore elaborazione:

Fig. 23.6 - Densità di probabilità dell'inviluppo.

2 4 6 8

0.1

0.2

0.3

0.4

0.6 0

3 4

1

2 5

p (l )

l

Page 419: Lezioni di TEORIA DEI SEGNALI.pdf

Segnali passa-banda - 407 -

𝑝𝜗(𝑡),𝜑(𝛾, 𝜈)

=⊓ (

𝛾

2𝜋)⊓ (

𝜈

2𝜋)

4𝜋2𝜎2𝑒−𝐴2sin2(𝜈−𝛾)

2𝜎2 ∫ 𝜌𝑒−(𝜌−𝐴cos(𝜈−𝛾))2

2𝜎2

0

𝑑𝜌

=⊓ (

𝛾

2𝜋)⊓ (

𝜈

2𝜋)

4𝜋2𝜎2{𝜎2𝑒

−𝐴2

2𝜎2

+ √𝜋

2𝐴𝜎cos(𝜈 − 𝛾)𝑒

−𝐴2sin2(𝜈−𝛾)

2𝜎2 [1 + erf (𝐴cos(𝜈 − 𝛾)

√2𝜎)]}

(23.7.16)

che, introducendo il parametro 𝛼, diventa:

𝑝𝜗(𝑡),𝜑(𝛾, 𝜈)

=⊓ (

𝛾

2𝜋)⊓ (

𝜈

2𝜋)

4𝜋2{𝑒

−𝐴2

2𝜎2 + √𝜋

2𝛼cos(𝜈

− 𝛾)𝑒−𝐴2sin2(𝜈−𝛾)

2𝜎2 [1 + erf (𝐴cos(𝜈 − 𝛾)

√2𝜎)]}

(23.7.17)

L'andamento della funzione 𝑝𝜗,𝜑(𝛾, 𝜈) in funzione di 𝛾 − 𝜈 è

riportato in Fig. 23.7per diversi valori del parametro 𝛼.

Fig. 23.7

Page 420: Lezioni di TEORIA DEI SEGNALI.pdf

Bibliografia

[1] - B. Lévine; Fondements théoriques de la radiotechnique stati-

stique. Tome I. Editions MIR. Moscou. 1973. [2] - M. Schwartz, L. Shaw: Signal Processing: Discrete Spectral

Analysis, Detection, and Estimation. McGraw-Hill. New York. 1975.

[3] – B.Gnedenko: The theory of probability. MIR Puplishers Mos-cow. 1976

[4] - A. Papoulis: Signal Analysis: McGraw-Hill. New York. 1977 [5] - F. de Coulon: Théorie et traitment des signaux: Editions

Georgi. Lausanne. 1984. [6] - J. Proakis, D.G. Manolakis: Introduction to Digital Signal Po-

cessing. Maxwell, Macmillan. Int. New York. 1988 [7] - A.V. Oppenheim, A.V. Schafer: Discrete-time Signal Pro-

cessing. Prentice-Hall, Englewood Cliffs, N.J. 1989 [8] - J.G. Proakis, C.M. Rader, F. Ling, C.L. Nikias: Advanced Digital

Signal Processing. Maxwell, Macmillan. Int.Ed. New York. 1992.

[9] - B.Pincibono: Random Signals and Systems. Prentice-Hall Int. Englewoogd Cliffs, New Jersey, 1993.