Teoria Dei Segnali - Parte 2

50
CAPITOLO 3 I Processi Stocastici 3.1. Definizione di Processi Stocastici Una distinzione importante tra i segnali è quella che si fa tra segnali predicibili, di cui si può conoscere a priori l’evoluzione nel tempo (come ad esempio un’onda quadra) e segnali non predicibili, di cui si possono al più supporre alcune caratter- istiche principali (ad esempio le escursioni massime, la velocità di variazione e così via). Si supponga di registrare l’evoluzione della pressione atmosferica in un certo lu- ogo della Terra durante l’anno. Questa grandezza fisica non è predicibile a priori,e l’unico modo per conoscerla è quello di osservarla a posteriori. Dopo l’acquisizione si potranno fare alcune osservazioni, come ad esempio il fatto che essa difficilmente supera i 1030 mB e altrettanto difficilmente va al di sotto di 950 mB. Una cosa impor- tante a proposito di questo segnale è che non solo non si può prevedere, ma che esso cambia a seconda del periodo in cui è stato registrato (cioè la sua osservazione nel mese di marzo è sicuramente diversa da quella nel mese di agosto) ed inoltre cambia a seconda del luogo della Terra in cui viene registrato, anche se la registrazione è fatta nello stesso periodo (vedi in figura 3.1.1 tre differenti misurazioni). 100 0 50 100 150 200 250 0 10 20 30 40 50 60 70 80 90 -50 F IGURA 3.1.1. Rappresentazione delle pressioni atmosferiche in vari luoghi della Terra. La variabilità del processo è quindi di due tipi: una variabilità tra i vari segnali ed una variabilità dell’evoluzione temporale del singolo segnale. Il modellamento di un segnale aleatorio viene fatto attraverso la teoria dei processi stocastici. 67

description

AA

Transcript of Teoria Dei Segnali - Parte 2

  • CAPITOLO 3

    I Processi Stocastici

    3.1. Definizione di Processi Stocastici

    Una distinzione importante tra i segnali quella che si fa tra segnali predicibili,di cui si pu conoscere a priori levoluzione nel tempo (come ad esempio unondaquadra) e segnali non predicibili, di cui si possono al pi supporre alcune caratter-istiche principali (ad esempio le escursioni massime, la velocit di variazione e cosvia).

    Si supponga di registrare levoluzione della pressione atmosferica in un certo lu-ogo della Terra durante lanno. Questa grandezza fisica non predicibile a priori, elunico modo per conoscerla quello di osservarla a posteriori. Dopo lacquisizionesi potranno fare alcune osservazioni, come ad esempio il fatto che essa difficilmentesupera i 1030mB e altrettanto difficilmente va al di sotto di 950mB. Una cosa impor-tante a proposito di questo segnale che non solo non si pu prevedere, ma che essocambia a seconda del periodo in cui stato registrato (cio la sua osservazione nelmese di marzo sicuramente diversa da quella nel mese di agosto) ed inoltre cambiaa seconda del luogo della Terra in cui viene registrato, anche se la registrazione fattanello stesso periodo (vedi in figura 3.1.1 tre differenti misurazioni).

    100

    0

    50

    100

    150

    200

    250

    0 10 20 30 40 50 60 70 80 9050

    FIGURA 3.1.1. Rappresentazione delle pressioni atmosferiche in variluoghi della Terra.

    La variabilit del processo quindi di due tipi: una variabilit tra i vari segnali eduna variabilit dellevoluzione temporale del singolo segnale. Il modellamento di unsegnale aleatorio viene fatto attraverso la teoria dei processi stocastici.

    67

  • 3.1. DEFINIZIONE DI PROCESSI STOCASTICI 68

    Come nella teoria delle probabilit, dovremmo, per un segnale aleatorio, individ-uare lo spazio delle probabilit, cio linsieme di tutti i possibili segnali che costitu-iscono il processo (ammesso che questo si possa fare): = {!i}. Quindi riferendosial processo si pu pensare una corrispondenza che associ ad ogni campione !i di un dato segnale. Questa corrispondenza costituisce il processo aleatorio. Una datamisurazione della pressione atmosferica in un punto della Terra costituisce un risultatodello spazio campione e viene chiamato realizzazione del processo xi(t) = X(t,!i).

    Il processo stocastico comunemente indicato con X(t), omettendo la relazionedi dipendenza dallo spazio campione con cui associato .

    Una volta fissato quale tra i vari segnali del processo va estratto, si ha una funzionedel tempo che rappresenta la realizzazione. Una realizzazione del processo stocasticonon pi aleatoria, a posteriori, nel senso che dopo losservazione essa una funzionedeterministica del tempo. Viceversa, si pu fissare un arbitrario istante di tempo edosservare il valore che tutte le realizzazioni del processo assumono a quellistante:X(to) (vedi in figura 3.1.2)

    ot

    50

    100

    150

    200

    250

    300

    350

    400

    0 10 20 30 40 50 60 70 80 90 100

    0

    50

    FIGURA 3.1.2. Estrazione di una variabile aleatoria dal processo stocastico.

    I valori che sono assunti sulle varie realizzazioni del processo non sono predicibilia priori e quindi rappresentano i risultati di una variabile aleatoria.

    3.1.1. Processi parametrici. Un primo esempio di processi stocastici dato daiprocessi parametrici, cio processi in cui per le funzioni del tempo esiste una formachiusa che permetta di rappresentarle, sebbene uno o pi parametri di queste funzionisiano variabili aleatorie.

    Si supponga di considerare il seguente processo:

    (3.1.1) X(t;!) = eA(!)tu(t)

  • 3.1. DEFINIZIONE DI PROCESSI STOCASTICI 69

    dove A(!) rappresenta una variabile aleatoria con distribuzione uniforme nellinter-vallo [0, 1/T ]. Se omettiamo la dipendenza dal risultato !, si pu scrivere: X(t) =eAtu(t). In questo processo parametrico quindi definita una classe di funzioni il cuiandamento dipende dal valore estratto di una v.a.

    Un altro esempio notevole (che avremo modo di riprendere pi avanti) quellodelloscillazione sinusoidale prodotta da un oscillatore reale. In un oscillatore reale,mentre si possono controllare abbastanza bene lampiezza e la frequenza delloscil-lazione, molte volte difficile determinare la fase iniziale. Ne consegue che accen-dendo in tempi differenti loscillatore la funzione sinusoidale che viene generata puessere modellata come un processo stocastico parametrico:

    (3.1.2) X(t) = A sin(2fot+)

    dove una variabile aleatoria uniforme nellintervallo [0, 2[.

    3.1.2. Caratterizzazione di un processo stocastico. Al contrario di quanto si pufare per un segnale deterministico, per un processo stocastico non possibile una suacaratterizzazione in termini di andamento temporale. Si devono quindi introdurre glistrumenti della teoria delle probabilit per poter caratterizzare il processo in modostatistico.

    Si cominci ad osservare che, se si considera un istante di tempo ben determinatoto, il valore che tutte le realizzazioni assumono in quellistante rappresenta una v.a.Quindi possibile, per quella v.a. definire una funzione di distribuzione di probabilit(dipendente da to):

    (3.1.3) F (x; to) = P (X(to) x)

    La funzione di distribuzione cambier al variare di to, dato che al variare dellistantedi osservazione la v.a. differente. Questo modellamento non tuttavia sufficiente acaratterizzare il processo. Se cos fosse dovremmo essere in grado di prevedere lan-damento della singola realizzazione a partire da tutte le funzioni di distribuzione diprobabilit estratte ad ogni istante, e cos non . Si pensi ad esempio alla possibil-it che abbiamo di prevedere landamento di un titolo in borsa nel tempo. Si vuolecio cercare di determinare quando il valore del titolo supera il valore attuale. Perfare questo la caratterizzazione del primo ordine che abbiamo dato non sufficiente.E necessaria una caratterizzazione che permetta di correlare, congiuntamente, le duevariabili aleatorie nei due istanti differenti to e t1 nei quali conduciamo losservazione.

  • 3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 70

    E necessaria quindi una caratterizzazione del secondo ordine. Questa relazione de-scritta dalla funzione di distribuzione di probabilit congiunta per una coppia di v.a.:

    (3.1.4) F (x1, x2; t1, t2) = P (X(t1) x1;X(t2) t2)

    La conoscenza completa della statistica del secondo ordine richiede che queste fun-zioni di distribuzione siano note per ogni coppia possibile di istanti di tempo.

    Iterando questo ragionamento, si capisce che la caratterizzazione di un processostocastico si pu considerare completa solo quando, fissati n istanti di tempo (con narbitrariamente grande), si in grado di determinare la funzione di distribuzione con-giunta di ordine n per le n variabili aleatorie che si hanno estraendo i valori dallerealizzazioni agli istanti t1, t2, ..., tn:

    (3.1.5)F (x1, x2, ..., xn; t1, t2, ..., tn) = P (X(t1) x1, X(t2) x2, ..., X(tn) xn)

    Da questa si pu ricavare la funzione densit di probabilit di ordine n:

    (3.1.6) f(x1, x2, ..., xn; t1, t2, ..., tn) =@nF (x1, x2, ..., xn; t1, t2, ..., tn)

    @x1@x2...@xn

    La conoscenza della classe di funzioni f(x1, x2, ..., xn; t1, t2, ..., tn) per qualunque val-ore n e qualunque n pla di istanti di tempo caratterizza completamente il processoaleatorio.

    Si capisce bene che la conoscenza completa di un processo aleatorio impresaquali sempre impossibile. Nella maggior parte dei casi si cerca di determinare la dis-tribuzione (e densit) del primo o al pi secondo ordine. Altre volte ci si accontenta dideterminare alcuni parametri statistici.

    3.2. Parametri Statistici del 1o e 2o Ordine

    3.2.1. Valor medio, potenza e varianza. Alcuni parametri statistici permettonodi determinare le caratteristiche principali di un processo statistico, pur senza la conoscen-za completa di esso.

    Tra questi parametri particolarmente significativa la funzione valormedio: X(t).Per definizione questa funzione il valor medio della v.a. che si ottiene estraendo i

  • 3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 71

    valori delle realizzazioni allistante assegnato:

    (3.2.1) (t) = E[X(t)] =Z +11

    xfX(x, t)dx

    al variare di t si generano una serie di valori medi che costituiscono la funzione. Lafunzione valor medio rappresenta una statistica del primo ordine, dato che per il suocalcolo sufficiente la conoscenza della statistica di primo ordine del processo. Lafunzione valor medio rappresenta una specie di compendio di tutte le realizzazioni delprocesso stocastico, ma non rappresenta necessariamente essa stessa una realizzazionedel processo.

    EXAMPLE 3.2.1. Si supponga di considerare il processo aleatorio parametricoX(t) = a cos(2fot + ), dove una v.a. con densit di probabilit uniformenellintervallo [0, [. La funzione valor medio si pu determinare osservando che, perogni istante t fissato, il processoX(t) si pu pensare come la trasformazione della v.a. in unaltra v.a. X = X(). Il suo valor medio quindi si pu determinare con ilteorema del valor medio: (t) = E[X(t)] = E[a cos(2fot+)]:

    (3.2.2)

    (t) =

    Z +11

    a cos(2fot+ )f()d =a

    Z 0

    cos(2fot+ )d = 2a

    sin(2fot)

    Analogamente si potrebbe ricavare la funzione valor medio nel caso visto nella eq.3.1.2, in cui cio: X(t) = a sin(2fot+), con = U(0, 2).

    Unaltra grandezza statistica del primo ordine utile per caratterizzare il processo, la potenza media statistica istantanea (brevemente detta potenza media):

    (3.2.3) Px(t) = E[X2(t)] =Z +11

    x2 fX(x, t)dx

    analoga alla potenza istantanea per i segnali deterministici.Si pu inoltre definire la funzione varianza del processo:

    (3.2.4) 2x(t) = E[(X(t) (t))2] =Z +11

    (x (t))2 fX(x, t)dx

  • 3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 72

    Si ricava, abbastanza facilmente:

    (3.2.5) 2x(t) = Px(t) 2(t)

    la relazione che esprime la dipendenza tra varianza, funzione valor medio e potenzaistantanea.

    3.2.2. Autocorrelazione e autocovarianza. Due parametri statistici del secondoordine, fondamentali per lo studio dei processi stocastici, sono la funzione di autocor-relazione e la funzione di autocovarianza. Il loro significato rimandato pi avanti,quando si introdurranno i processi stazionari.

    Si supponga di considerare due istanti di tempo arbitrari, t1 e t2. Dato il processostocastico, possibile estrarre le due v.a. Y = X(t1) e Z = X(t2). Ha senso allora ef-fettuare il calcolo della correlazione tra Y e Z. Generalmente questa correlazione sarfunzione dei due istanti di tempo, e quindi si pu ritenere una funzione di due variabili:

    (3.2.6)

    Rx(t1, t2) = E[X(t1)X(t2)] =

    Z +1x1=1

    Z +1x2=1

    x1x2fx(x1, x2; t1, t2)dx1dx2

    La funzione che cos si ottiene detta funzione di autocorrelazione, poich le duevariabili aleatorie sono state ottenute estraendole dallo stesso processo.

    In modo del tutto analogo possibile determinare la funzione di autocovarianza:

    Cx(t1, t2) = E[(X(t1) (t1)) (X(t2) (t2))] =

    (3.2.7) =Z +1x1=1

    Z +1x2=1

    (x1 (t1)) (x2 (t2)) fx(x1, x2; t1, t2)dx1dx2

    Dalla definizione facile ricavare che: Cx(t1, t2) = Rx(t1, t2) (t1)(t2).EXAMPLE 3.2.2. Si calcoli la funzione di autocorrelazione del processo X(t) =

    a cos(2fot + ), con = U [0, [. Estraendo il processo negli istanti t1 e t2 siottengono le v.a.: X(t1) = a cos(2fot1 +) e X(t2) = a cos(2fot2 +), che si

  • 3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 73

    possono ritenere entrambe trasformazioni della stessa v.a.. Quindi, mediante il teore-ma del valor medio si ottiene:

    Rx(t1, t2) = E[X(t1)X(t2)] = E[a cos(2fot1 + ) a cos(2fot2 + )] =

    (3.2.8) = a2 Z 0

    1

    cos(2fot1 + ) cos(2fot2 + )d =

    a2

    2cos(2fo(t1 t2))

    In questo esempio la funzione di autocorrelazione sinusoidale, come i segnali checostituiscono le singole realizzazioni del processo, inoltre dipende dalle due vari-abili attraverso la loro differenza. La funzione di autocorrelazione quindi, in realt,funzione di una sola variabile.

    Si supponga ora di avere lo stesso processo precedente: X(t) = a cos(2fot+),ma con = U [0, 2[. Si voglia calcolare la funzione valor medio, la funzione diautocorrelazione e la funzione di autocovarianza.

    Si osservi che, se per la funzione valor medio si ha:

    (3.2.9) (t) = E[X(t)] =Z 20

    1

    2 a cos(2fot+ )d = 0

    allora: Cx(t1, t2) = Rx(t1, t2). Entrambe valgono:

    Rx(t1, t2) = E[X(t1)X(t2)] =

    (3.2.10) =Z 20

    1

    2acos(2fot1+)acos(2fot2+)d = a

    2

    2cos(2fo(t1t2))

    pari al risultato ottenuto precedentemente (vedi 3.2.8).Vediamo infine il caso in cui nel processo X(t) = A cos(2fot) a variare sia

    lampiezza delloscillazione sinusoidale. Tale ampiezza vari come una v.a. uniformenellintervallo [0, 1]. La funzione valor medio si ottiene fissando un dato istante ditempo t:

    (3.2.11) (t) = E[X(t)] = E[A cos(2fot)] = E[A] cos(2fot) = 12 cos(2fot)

  • 3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 74

    La funzione di autocorrelazione vale:

    Rx(t1, t2) = E[A cos(2fot1) A cos(2fot2)] = cos(2fot1) cos(2fot2) E[A2] =

    (3.2.12) =1

    3cos(2fot1) cos(2fot2)

    e in questo caso non si pu esprimere come funzione di una sola variabile. La funzionedi autocovarianza vale infine:

    Cx(t1, t2) =1

    3cos(2fot1) cos(2fot2) 1

    2 cos(2fot1) 1

    2 cos(2fot2) =

    (3.2.13) =1

    12cos(2fot1) cos(2fot2)

    Un altro esempio notevole il seguente:

    EXAMPLE 3.2.3. Processo di Bernoulli e processi derivati.Si consideri il seguente processo tempo discreto: In = {0, 1} che pu assumere

    valori solo in istanti discreti indicati con indici interi n 2 N. I valori assunti dallesingole realizzazioni possono essere soltanto 0 o 1. In particolare il valore 0 assuntocon probabilit p, il valore 1 con probabilit 1 p:

    (3.2.14) In =

    0 p1 1 p

    Le singole realizzazioni, come pure le estrazioni in una singola realizzazione sonoindipendenti tra loro (vedi figura 3.2.1).La funzione valor medio vale:

    (3.2.15) mI(n) = p 0 + (1 p) 1 = 1 p

  • 3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 75

    0 1 1 1 0 0 1 .....

    i i+1 i+2 i+3 ............

    1 1 0 1 0 1 1 .....

    i i+1 i+2 i+3 ...............

    FIGURA 3.2.1. Rappresentazione grafica del processo di Bernoulli.

    ed indipendente dal tempo (cio lindice n). La varianza vale:

    (3.2.16) 2I = E[I2n] E2[In] = p 02 + (1 p) 12 (1 p)2 = p(1 p)

    Infine la funzione di autocorrelazione vale:

    (3.2.17) RI(n,m) = E[InIm] = E[In]E[Im]

    essendo le estrazioni indipendenti. Quindi si ha: RI(n,m) = (1 p)2.Un processo derivato da quello di Bernoulli il seguente:

    (3.2.18) Dn = 2In 1 = 1 p

    1 1 p

    Il suo valor medio vale:

    (3.2.19) mD(n) = E[2In 1] = 2(1 p) 1 = 1 2p

    la sua varianza vale

    (3.2.20) 2D = E[D2n] E2[Dn] = E

    4I2n 4In + 1

    (1 2p)2 = 4p(1 p)Infine la funzione di autocorrelazione vale:

  • 3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 76

    RD(n,m) = E[DnDm] = E[4InIm 2In 2Im + 1] =(3.2.21) = 4(1 p)2 4(1 p) + 1 = (1 2p)2

    che lo stesso risultato che avremmo ottenuto semplicemente osservando che: E[DnDm] =E[Dn]E[Dm].

    Lultima applicazione del processo di Bernoulli la passeggiata a caso unidimen-sionale, cio il processo:

    (3.2.22) Sn = D1 +D2 + ...+Dn

    Il suo valor medio vale:

    (3.2.23) E[Sn] = E[D1+D2+ ...+Dn] = E[D1]+E[D2]+ ...+E[Dn] = n(12p)

    e questa volta una quantit dipendente da n. Inoltre, essendo i processi indipendentitra loro la varianza somma delle varianze

    (3.2.24) 2Sn =nX

    k=1

    2D = 4np(1 p)

    La sua funzione di autocorrelazione vale:

    (3.2.25)

    RS(n.m) = E[SnSm] = E

    "nX

    k=1

    Dk mXl=1

    Dl

    #=

    nXk=1

    mXl=1

    E [Dk Dl] = nm(12p)2

    Il range di valori che pu assumere questo processo variabile con n. Per un certon fissato, Sn pu assumere tutti i valori compresi tra [n, n]. La probabilit che tra iD1, D2, ..., Dn vi siano k valori pari ad 1 ed nk valori pari a1 (quindi la probabilitche Sn valga: k (n k) = 2k n) :

    (3.2.26) P (Sn = 2k n) = ( nk )(1 p)kpnk

    Una variazione sul tema dei processi stocastici di Bernoulli il segnale telegraficocasuale. Il processo consiste di realizzazioni che possono assumere solo valori discreti

  • 3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 77

    pari a 1 od a 1. Le funzioni sono continue nel tempo:

    (3.2.27) X(t) = 1

    1

    Per ipotesi si suppone inoltre che

    (3.2.28) P (X(0) = 1) = P (X(0) = 1) = 1/2

    Le realizzazioni del processo assumono valori differenti cambiando di stato nellostesso modo con cui arrivano gli eventi negli esperimenti aleatori alla Poisson. Unapossibile realizzazione riportata in figura (3.2.2).

    FIGURA 3.2.2. Realizzazione di un processo telegrafico casuale

    Sia lintensit della legge di Poisson che governa il processo. Ogni singola real-izzazione, x(t), permane ad un dato valore sino a che non c un arrivo che gli facambiare stato. Il numero di arrivi nellunit di tempo regolato da una v.a. discretadi Poisson con intensit . Calcoliamo la probabilit che ad un dato istante t la singolarealizzazione abbia uno dei due valori:

    P (X(t) = 1) = P (X(t) = 1/X(0) = 1) P (X(0) = 1)

    (3.2.29) +P (X(t) = 1/X(0) = 1) P (X(0) = 1)

    la prima delle due somme a secondo membro ha il termine P (X(t) = 1/X(0) = 1)che si pu verficare solo se il numero di cambiamenti (eventi di Poisson) verificatosi pari, per il secondo termine il numero di cambiamenti da verificarsi dispari:

  • 3.2. PARAMETRI STATISTICI DEL 1o E 2o ORDINE 78

    (3.2.30) P(Ncamb = pari) =1Xj=0

    (t)2j

    (2j)!et = et 1

    2(et + et) =

    1

    2(1 + e2t)

    (3.2.31)

    P (Ncamb = dispari) =1Xj=0

    (t)2j+1

    (2j + 1)!et = et 1

    2(et et) = 1

    2(1 e2t)

    Da cui si ha in conclusione:

    (3.2.32) P (X(t) = 1) =1

    2[1

    2(1 + e2t) +

    1

    2(1 e2t)] = 1

    2

    ed analogamente: P (X(t) = 1) = 12 .Calcoliamo la funzione valor medio e la funzione varianza del processo:

    (3.2.33) mX(t) = E[X(t)] =1

    2 (1) + 1

    2 (+1) = 0

    (3.2.34) 2X(t) = Px(t) = E[X(t)2] =

    1

    2 (1)2 + 1

    2 (+1)2 = 1

    Calcoliamo infine la funzione di autocorrelazione e la funzione di autocovarianza:Rx(t1, t2) = Cx(t1, t2).

    (3.2.35) Rx(t1, t2) = E[X(t1)X(t2)]

    tuttavia il prodotto di X(t1)X(t2) pu essere solo o 1 oppure +1. In particolare pari a 1 quando il numero di cambiamenti (eventi di Poisson) avvenuti tra t1 e t2 dispari, altrimenti il prodotto X(t1)X(t2) pari a +1. Quindi:

    P (X(t1)X(t2) = 1) = P (Ncamb = pari) = P (N(t2 t1) = pari) =

  • 3.3. PROCESSI STAZIONARI 79

    (3.2.36) =1

    2(1 + e2(t2t1))

    Analogamente per un numero dispari di arrivi:

    P (X(t1)X(t2) = 1) = P (Ncamb = dispari) = P (N(t2 t1) = dispari) =

    (3.2.37) =1

    2(1 e2(t2t1))

    Si ha in conclusione:

    E[X(t1)X(t2)] = (+1) 12(1 + e2(t2t1)) + (1) 1

    2(1 e2(t2t1)) =

    (3.2.38) = e2|t2t1|

    ed, ancora una volta, abbiamo trovato un processo la cui funzione di autocorrelazione(e di autocovarianza) dipende solo dalla differenza dei due istanti generici, e nonseparatamente dai due.

    3.3. Processi Stazionari

    Una notevole propriet dei processi stocastici la stazionariet. Si visto chei parametri statistici del primo e secondo ordine dipendono dalla scelta degli istantidi tempo. Anche la funzione densit di probabilit congiunta di ordine n dipendegeneralmente dalla scelta degli istanti di tempo in corrispondenza dei quali si valuta ilprocesso.

    Si supponga ora di considerare n istanti di tempo t1, t2, ..., tn, in corrispondenzadei quali si ottiene la funzione di densit di probabilit congiunta:fx(x1, x2, ..., xn; t1, t2, ..., tn).

    Se si spostano rigidamente tutti gli istanti di tempo di una stessa quantit t, gen-eralmente otterremo una differente funzione di densit di probabilit congiunta:

    (3.3.1) fx(x1, x2, ..., xn; t1 +t, t2 +t, ..., tn +t)

  • 3.3. PROCESSI STAZIONARI 80

    .

    PROPOSITION 3.3.1. Un processo si dice stazionario in senso stretto, se risultache, per ogni scelta di n, t1, t2, ..., tn e di t:

    (3.3.2) fx(x1, x2, ..., xn; t1, t2, ..., tn) = fx(x1, x2, ..., xn; t1+t, t2+t, ..., tn+t)

    La stazionariet forte (in senso stretto) richiede luguaglianza della funzione didensit di probabilit congiunta per qualunque ordine, scelta degli istanti di tempo edi traslazione. Cio richiede che rispetto a tutte queste variabili la funzione fx siainvariante. I processi X(t) e X(t + t) devono quindi avere le stesse statistiche.Questo non significa che le due variabili aleatorie che estrarremo nei due istanti ditempo sono identiche (poich questo non pu mai accadere per il significato stesso digrandezza statistica) ma significa che le due quantit non possono essere distinte traloro con misure statistiche.

    Conseguenza di questa definizione che: fx(x; t) = fx(x; t+t) cio la funzionedensit di probabilit del primo ordine non funzione del tempo e anche i parametristatistici del primo ordine (funzione valor medio, funzione potenza e funzione varian-za) non dipendono dalla variabile tempo (stazionariet del primo ordine).

    Inoltre per quel che riguarda la stazionariet del secondo ordine, si ha:

    (3.3.3) fx(x1, x2; t1, t2) = fx(x1, x2; t1 +t, t2 +t)

    e questo pu accadere solo se la funzione di densit di probabilit dipende dalladifferenza tra gli istanti di tempo, e non separatamente dai due: fx(x1, x2; t1, t2) =fx(x1, x2; t1 t2). Allora tutte le statistiche del secondo ordine (funzione di autocor-relazione e funzione di autocovarianza) dipenderanno dalla differenza degli istanti ditempo e non separatamente dai due. Questo il caso del processo visto in (3.1.2) o delsegnale telegrafico casuale.

    Salendo di ordine (sebbene statistiche di ordine superiore non siano state introdotte)si ottiene che la funzione densit di probabilit congiunta di ordine n e tutte le statis-tiche di ordine correlato non dipenderanno dagli istanti di tempo separatamente, madalle n 1 differenze t1 t2, t2 t3, ..., tn1 tn, dato che solo queste differenzerestano invariate rispetto ad una traslazione rigida dei tempi.

    COROLLARY 3.3.2. Una stazionariet di ordine n implica la stazionariet di tuttigli ordini pi bassi (il contrario generalmente non vero).

  • 3.3. PROCESSI STAZIONARI 81

    3.3.1. Stazionariet in senso lato. La verifica della stazionariet in senso stret-to, anche per ordini bassi, in genere un compito arduo (salvo casi particolari). Disolito allora ci si accontenta di una definizione di stazionariet meno restrittiva: lastazionariet in senso lato (o debole).

    PROPOSITION 3.3.3. Un processo aleatorio stazionario in senso lato se la suafunzione valor medio costante x(t) = x e la sua funzione di autocorrelazionedipende solo dalla differenza degli istanti di tempo Rx(t1, t2) = Rx(t1 t2).

    La definizione di stazionariet in senso lato coinvolge solo due statistiche e quindinon richiede alcuna paricolare propriet alla funzione densit di probabilit congiunta.

    COROLLARY 3.3.4. Un processo stazionario in senso stretto stazionario anchein senso lato. Non vero il viceversa

    Se il processo stazionario in senso lato la funzione di autocovarianza vale:

    (3.3.4) Cx(t1, t2) = Rx(t1 t2) 2x = Cx(t1 t2)

    cio anche la funzione di autocovarianza dipende dalla differenza degli istanti ditempo. Anche nel caso di stazionariet in senso lato rimane comunque difficile ver-ificare la propriet. Infatti la verifica di una propriet statistica come la stazionarietrichiede che si riescano a manipolare (per effettuare misure statistiche) tutte le possi-bili realizzazioni del primo e secondo ordine del processo, o che si conosca in qualchemodo una forma chiusa della funzione di densit di probabilit del processo stesso alvariare di t (cosa normalmente non vera).

    La funzione di autocorrelazione, nellipotesi di stazionariet in senso lato pu es-sere riscritta mettendo in evidenza proprio la dipendenza dalla differenza degli istantidi tempo:

    (3.3.5) Rx(t1, t2) = Rx(t, t ) = E[X(t)X(t )]

    EXAMPLE 3.3.5. Riprediamo lesempio visto pi volte: X(t) = acos(2fot+),con = U [0, [. Si ottenuto che (t) = 2a sin(2fot), quindi il processo non sipu considerare stazionario in senso lato, dato che la funzione valor medio dipende daltempo.

    Il processo X(t) = a cos(2fot + ), con = U [0, 2[, ha invece: (t) = 0e Rx(t1, t2) = a

    2

    2 cos(2fo(t1 t2)), e quindi si pu ritenere un processo stazionario

  • 3.3. PROCESSI STAZIONARI 82

    in senso lato, dato che la funzione valor medio costante e la funzione di autocorre-lazione dipende solo dalla differenza dei tempi.

    Un caso particolare del processo telegrafico casuale il seguente

    EXAMPLE 3.3.6. Segnale dati.Si supponga di avere un processo stocastico le cui realizzazioni sono funzioni del

    tempo V (t) che possono assumere solo due valori discreti: +1 e 1 con probabilit1/2. Si supponga inoltre che la funzione cambi di stato solo ad istanti prefissati, cheverranno indicati con degli indici interi: V (nT ) = Vn. I valori inoltre sono assunti inmodo indipendente luno dallaltro. Quindi la funzione assume valore costante per tuttigli istanti di tempo t compresi tra due transizioni: V (t) = Vn per nT t < (n+ 1)T .La forma generica della funzione quindi la seguente:

    (3.3.6) V (t) =+1X

    n=1Vnrect(

    t nT T/2T

    )

    Il precedente processo modella molto bene un segnale dati binario con velocit di clockpari a 1/T . Esso utile a schematizzare tutte le situazioni in cui si ha il trasferimento dibit tra due sistemi (ad esempio un computer ed una sua periferica). Poich infatti non nota a priori linformazione che si sta trasmettendo, il processo si pu considerare atutti gli effetti aleatorio.

    Determiniamo ora i parametri statistici rilevanti e verifichiamo leventuale staziona-riet. Ad un certo istante fissato t, losservazione di tutte le realizzazioni porta a direche i valori che queste possono assumere sono soltanto +1 o 1. Inoltre, poich si supposto che tali valori sono assunti con probabilit pari ad 1/2, la funzione di densitdi probabilit del primo ordine non pu che valere:

    (3.3.7) fv(v; t) =1

    2(v + 1) +

    1

    2(v 1)

    Questa funzione non dipende dalla variabile tempo. Quindi il processo stazionarioin senso stretto per il primo ordine. Ci aspettiamo allora che la funzione valor mediosia costante:

    (3.3.8) v(t) =Z +11

    vfv(v; t)dv =

    Z +11

    v [12(v + 1) +

    1

    2(v 1)]dv = 0

  • 3.3. PROCESSI STAZIONARI 83

    Il calcolo della funzione di autocorrelazione un po pi complesso. Tuttaviasi pu facilmente dimostrare che il processo non stazionario n in senso stretto,n in senso lato per quel che riguarda il secondo ordine, dato che la funzione diautocorrelazione non pu dipendere dalla sola differenza dei tempi.

    Si consideri infatti, nella figura 3.3.1, i due istanti di tempo t1 e t2. Nel graficoin alto i due istanti di tempo capitano allinterno dellintervallo [nT, (n + 1)T ], quin-di la realizzazione assume valore uguale: V (t1) = V (t2) = Vn. Si ha allora cheRv(t1, t2) = E[V (t1)V (t2)] = E[V 2n ] = 1. Se ora spostiamo rigidamente i due istantidi tempo sino a farli capitare a cavallo di due intervalli, come indicato nella figura inbasso, si avr che V (t1) 6= V (t2) e quindi

    (3.3.9) Rv(t1, t2) = E[V (t1)V (t2)] = E[V (t1)]E[V (t2)] = E[Vn]E[Vn+1] = 0

    Se il processo fosse stazionario in senso lato la funzione di autocorrelazione dovrebbedipendere solo dalla differenza dei due istanti di tempo e quindi la Rv(t1, t2) nei duecasi avrebbe dovuto mantenere lo stesso valore.

    2

    t t

    t

    1 2

    1 t

    FIGURA 3.3.1. Realizzazione di un processo dati binario

    Si pu concludere quindi che il processo in esame non stazionario in senso lato,pur essendo stazionario in senso stretto per il primo ordine.

    Un caso molto frequente quello in cui si conosce la forma di un segnale (cio ilsuo andamento) ma non si riesce a piazzare il segnale rispetto ad un preciso riferimento

  • 3.3. PROCESSI STAZIONARI 84

    temporale. In tal caso il segnale pu essere modellato come un processo stocastico diquesto tipo:

    EXAMPLE 3.3.7. X(t) = p(t ), con variabile aleatoria che modella lin-certezza sulla posizione temporale del segnale. Un esempio classico leco del segnaleradar.

    Se supponiamo per semplicit che il segnale sia periodico di periodo T : p(t) =p(t + T ), si pu ipotizzare distribuita in modo uniforme tra 0 e T : 2 U(0, T ).Troviamo le propriet del processo descritto.

    La funzione valor medio:

    (3.3.10) (t) = E[p(t)] =Z T0

    p(t ) 1Td =

    1

    T

    Z ttT

    p()d

    Poich la funzione p() periodica di periodo T , il suo integrale in un periodo non pudipendere dagli estremi di integrazione, quindi dal valore t. Quindi la funzione valormedio indipendente dalla variabile tempo. In particolare il valore che la funzionevalor medio assume pari al valor medio della funzione p().

    Per la funzione di autocorrelazione si ha invece:

    Rx(t1, t2) = E[X(t1)X(t2)] = E[p(t1 )p(t2 )] =

    (3.3.11) =Z T0

    p(t1 ) p(t2 ) 1Td =

    1

    T

    Z t1t1T

    p() p(t2 t1 + )d

    Anche in questo caso la funzione integranda, essendo il prodotto di due segnali peri-odici di periodo T, ancora periodica di periodo T , quindi il suo integrale non dipendedal particolare posizionamento degli estremi di integrazione. La funzione di autocorre-lazione quindi non dipende separatamente da t1 o da t2, ma solo dalla loro differenza:Rx(t1, t2) = Rx(t1t2). Se si pone allora: t1t2 = nella equazione precedente si ha:

    (3.3.12) Rx() =1

    T

    Z T/2T/2

    p() p( )d

    avendo posto t1 = T/2. La funzione di autocorrelazione statistica del processoX(t) pari alla funzione di autocorrelazione del segnale deterministico e periodico p(t).

  • 3.3. PROCESSI STAZIONARI 85

    3.3.2. Propriet della funzione di autocorrelazione di un processo stazionarioin senso lato. Vediamo ora alcune propriet della funzione di autocorrelazione di unprocesso stazionario in senso lato.

    (1) La funzione di autocorrelazione Rx() pari: Rx() = Rx().Per dimostrare questa propriet si osservi che, per la stazionariet del proces-so, la funzione di autocorrelazione rimane invariata se la si calcola relativa-mente a due istanti di tempo t e t oppure ai due istanti t e t+ , dato chequesti ultimi sono ottenuti semplicemente mediante traslazione rigida. Si haallora

    (3.3.13) Rx() = E[X(t)X(t )] = E[X(t+ )X(t)] = Rx()(2) Il valore assunto da Rx() nellorigine pari alla potenza statisica del pro-

    cesso:

    (3.3.14) Rx()|=0 = Rx(0) = E[X(t)X(t)] = E[X2(t)].

    (3) La funzione di autocorrelazione massima in modulo nellorigine: Rx(0) |Rx()|.Se si considera infatti la disuguaglianza: E[(X(t) X(t ))2] 0, siosserva che essa sempre vera, dato che rappresenta la aspettazione di unaquantit sempre positiva. Sviluppando la relazione precedente si ha per:

    E[(X(t)X(t ))2] =(3.3.15) = E[X2(t) +X2(t ) 2X(t)X(t )] = 2Rx(0) 2Rx()

    che prova la disuguaglianza.(4) Se Rx() non periodica il suo valore limite per ! 1 il quadrato del

    valor medio:

    (3.3.16) lim!1

    Rx() = 2x

    Per giustificare qualitativamente questa propriet si ricordi innanzitutto che:Rx() = Cx() + 2x. Al crescere della distanza tra gli istanti di tempo, te t , i valori delle variabili aleatorie tendono sempre pi ad allontanarsitra loro, ad assumere cio comportamenti statistici sempre pi indipendenti,finch, al limite per !1, il loro comportamento completamente indipen-dente e quindi la loro autocovarianza nulla. La funzione di autocorrelazionequindi diventa pari al quadrato del valor medio.

  • 3.3. PROCESSI STAZIONARI 86

    EXAMPLE 3.3.8. Si riconsideri il processo dati binario gi visto precedentemente.Se il riferimento temporale non noto, il modello pi appropriato per questo processo:

    (3.3.17) V (t) =+1X

    n=1Vnrect(

    t T/2 nTT

    )

    t

    0

    0

    t

    FIGURA 3.3.2. Realizzazioni di un processo dati binario conriferimento temporale non noto

    dove la variabile aleatoria contiene lincertezza relativa al riferimento temporale,ed distribuita nellintervallo [0, T ] in modo uniforme. Tale v.a. indipendente dallagenerazione dei dati binari, ed modellata da una v.a. uniforme nellintervallo [0, T [.Indipendentemente dallistante di inizio del processo, il ragionamento fatto per deter-minare la funzione di densit di probabilit del primo ordine vale ancora. Quindi ilprocesso si pu ancora definire stazionario in senso stretto per il primo ordine, e ilcalcolo della funzione valor medio uguale a quanto gi fatto in (3.3.8). Si ha allorache: v(t) = v = 0. Per il calcolo della funzione di autocorrelazione si ha invece:

    Rv(t1, t2) = E[+1X

    n=1Vnrect(

    t1 T/2 nTT

    )

    +1X

    m=1Vmrect(

    t2 T/2mTT

    )] =

  • 3.3. PROCESSI STAZIONARI 87

    (3.3.18)

    =+1X

    n=1

    +1Xm=1

    E[VnVmrect(t1 T/2 nT

    T) rect(t2 T/2mT

    T)]

    ottenibile sfruttando la linearit delloperatore aspettazione. Ora si osservi che rispettoalla statistica dei dati binari, E[VnVm] diversa da zero solo quando gli indici n edm sono uguali (vedi il ragionamento e leq. (3.3.9)). Quindi della doppia sommatoriasopravvive solo un indice:

    Rx(t1, t2) =+1X

    n=1E[rect(

    t1 T/2 nTT

    ) rect(t2 T/2 nTT

    )] =

    =+1X

    n=1E[rect(

    t T/2 nTT

    ) rect(t T/2 nTT

    )] =

    =1

    T

    +1Xn=1

    Z T0

    rect(t T/2 nT

    T) rect(t T/2 nT

    T)d =

    se ora si pone: = t nT , si ha:

    (3.3.19) =1

    T

    +1Xn=1

    Z tnTtnTT

    rect( T/2

    T)rect(

    T/2T

    )d

    Si osservi ora che la funzione integranda non contiene la dipendenza da n, quindi ivalori dellintegrale saranno tutti uguali al variare di n e saranno funzioni dipendentisolo da . Inoltre, poich tali integrali sono calcolati in intervalli disgiunti del tipo:[nT T, nT ], la funzione di autocorrelazione si pu anche scrivere come:

    (3.3.20) Rx() =1

    T

    Z +11

    rect( T/2

    T)rect(

    T/2T

    )d

  • 3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO 88

    che rappresenta la nota correlazione deterministica tra due funzioni rettangolo. Il risul-tato pari alla funzione triangolo di base 2T :

    (3.3.21) Rx() = (1 | |T

    )rect(

    2T)

    Quindi, in questo secondo caso, il segnali dati binario stazionario in senso lato, datoche la funzione valor medio costante e la funzione di autocorrelazione dipende solodalla variabile .

    3.3.2.1. Significato della funzione di autocorrelazione. Si supponga di avere dueprocessi stocastici e stazionari in senso lato X(t) e Y (t), dotati degli stessi parametristatistici del primo ordine (funzione valor medio, funzione potenza e funzione varian-za). In tal caso, rinunciando allidea di riuscire a determinare la funzione di densitdi probabilit congiunta di qualunque ordine per i due processi, ci si deve affidare, perpoterli distinguere, ai parametri statistici. I parametri statistici del primo ordine persono tra loro uguali e quindi non permettono una distinzione statistica dei due processiin esame.

    In tal caso vengono in aiuto i parametri statistici del secondo ordine ed in par-ticolare la funzione di autocorrelazione, il cui significato ed utilit sono molto beneevidenziati proprio per i processi stazionari. Infatti se si suppone che i due proces-si X(t) ed Y (t) hanno funzioni di autocorrelazione differenti tra loro, qusto significache, in uno stesso istante di tempo , Rx() ed Ry() saranno differenti. Cio se siosservano i processi in due istanti di tempo distaccati di un intervallo , la loro ve-locit di variazione differente, dato che uno dei due processi assomiglia molto dipi a se stesso rispetto allaltro processo (quello con autocorrelazione maggiore haunautosomiglianza maggiore).

    In conclusione la funzione di autocorrelazione decresce tanto pi velocemente azero quanto pi rapida la variazione delle realizzazioni del processo. Essa misuracio la rapidit di variazione del segnale aleatorio.

    3.4. Filtraggio di un Processo Aleatorio

    Si gi detto che il motivo principale nellintroduzione della teoria dei processistocastici sta nel modellamento di fenomeni reali che sono descrivibili da grandezzefisiche che variano nel tempo e il cui comportamento non predicibile a priori. Poichle grandezze fisiche con cui ha a che fare lingegnere sono anche grandezze fisichemanipolabili, ha senso porsi il problema di cosa succede al processo (e quindi anchealle sue statistiche) se lo si fa passare per un sistema. Uno dei sistemi pi semplici dastudiare il filtro, cio un sistema lineare e tempo-invariante, che pu essere descrittocompletamente dalla sua risposta allimpulso, o dalla sua funzione di trasferimento.

  • 3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO 89

    Un tipico esempio quello in cui il processo in ingresso costituito da un segnaledeterministico noto a cui sovrapposto un processo aleatorio a valor medio nullo (det-to disturbo o rumore): X(t) = s(t)+n(t), come riportato nellesempio in figura 3.4.1.

    30

    1

    0.5

    0

    0.5

    1

    1.5

    0 5 10 15 20 251.5

    FIGURA 3.4.1. Esempio di un segnale deterministico rumoroso

    Quello che si fa normalmente di cercare, almeno in parte, di elaborare s(t) elim-inando la componente rumorosa. Questa operazione pu essere effettuata da un filtro.Loperazione imposta da un filtro unoperazione di convoluzione con un segnale noto(la risposta allimpulso del filtro), quindi il comportamento sui segnali deterministici noto. Resta da vedere come si comporta sui processi stocastici.

    X(t) Y(t)h(t)

    FIGURA 3.4.2. Filtraggio del processo X(t)

    Ogni realizzazione del processo di partenzaX(t) ottenuta mediante estrazione diun risultato dallo spazio campione : x(t;!). Questa realizzazione un segnale cheammette unuscita dal sistema filtro: y(t) = x(t;!) ? h(t), dove loperazione ? denotala convoluzione. Per ogni risultato dello spazio campione si ha una realizzazionedifferente e quindi un segnale di uscita differente. Linsieme dei segnali di uscita cos-tituiscono un nuovo processo, Y (t), che pu complessivamente denotarsi con:

    (3.4.1) Y (t) = X(t) ? h(t)

  • 3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO 90

    Generalmente il problema di determinare la funzione densit di probabilit congiuntadi qualunque ordine del processo di uscita, ammesso che sia nota quella del processodi partenza, insolubile.

    Quello che si fa allora di determinare la relazione che esiste tra i parametri stastiti-ci del primo e secondo ordine (si suppone di essere riusciti a determinare per lo menola funzione valor medio e la funzione di autocorrelazione di X(t)). La funzione valormedio vale:

    y(t) = E[Y (t)] = E[X(t) ? h(t)] =

    Z +11

    h()E[X(t )]d =

    (3.4.2)Z +11

    h()x(t )d = x(t) ? h(t)

    La funzione valor medio in uscita si ottiene effettuando la convoluzione tra la funzionevalor medio in ingresso con la risposta allimpulso del sistema. Il processo in ingressosi pu sempre pensare, ai fini del filtraggio, come la somma di una funzione determin-istica, x(t) e di un processo a valor medio nullo: X(t) = Xo(t) + x(t). Il filtraggiodel processo X(t), per la linearit del sistema, d in uscita un processo somma di duecomponenti: quella deterministica ottenuta filtrando il segnale deterministico x(t),la componente statistica ha valor medio nullo.

    Vediamo adesso la funzione di autocorrelazione del segnale di uscita:

    Ry(t1, t2) = E[Y (t1)Y (t2)] = E[(X(t1) ? h(t1))(X(t2) ? h(t2))] =

    = E[

    Z +11

    X()h(t1 )dZ +11

    X()h(t2 )d] =

    =

    Z +11

    Z +11

    E[X()h(t1 )X()h(t2 )]dd =

    =

    Z +11

    Z +11

    h(t1 )h(t2 )E[X()X()]dd =

    (3.4.3) =Z +11

    Z +11

    h(t1)h(t2 )Rx(, )dd = Rx(t1, t2) ? h(t1) ? h(t2)

  • 3.4. FILTRAGGIO DI UN PROCESSO ALEATORIO 91

    La doppia convoluzione va intesa nel senso che, nella prima la variabile t2 consider-ata costante, nella seconda convoluzione t1 ad essere considerata costante.

    3.4.1. Filtraggio di un processo stazionario in senso lato. Particolare interesseassume il caso in cui il processo in ingresso al filtro sia stazionario in senso lato. Perla funzione valor medio sia ha infatti la seguente relazione ingresso-uscita:

    (3.4.4) y(t) = y =Z +11

    h()x(t )d = xZ +11

    h()d = H(0) x

    dove H(0) il valore che la trasformata di Fourier della risposta allimpulso delsistema (la sua funzione di trasferimento H(f)) assume in f = 0.

    La funzione di autocorrelazione vale:

    Ry(t, t ) = E[Y (t)Y (t )] = E[(X(t) ? h(t))(X(t ) ? h(t ))] =

    = E[

    Z +11

    h()X(t )dZ +11

    h()X(t )d] =

    = E[

    Z +11

    Z +11

    h()h()X(t )X(t )dd] =

    =

    Z +11

    Z +11

    h()h()E[X(t )X(t )]dd =

    =

    Z +11

    Z +11

    h()h()Rx( + )dd =

    (3.4.5) =Z +11

    h() [Z +11

    h()Rx( + )d]d

    Si osservi subito che la funzione di autocorrelazione non dipende da t, ma solo da .Inoltre:

    (3.4.6)Z +11

    h()Rx( + )d = Rx( + ) ? h( + )

  • 3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 92

    Quindi la funzione di autocorrelazione in uscita diventa:

    (3.4.7) Ry() =Z +11

    h() [Rx( + ) ? h( + )]d = Rx() ? h() ? h()

    Se poi si osserva che la convoluzione di un segnale con se stesso ribaltato rispettoallasse dei tempi la autocorrelazione deterministica, si ha che: h()?h() = rh().Quindi: Ry() = Rx() ? rh().In conclusione:

    THEOREM 3.4.1. Se un processo in ingresso ad un sistema lineare tempo invari-ante stazionario in senso lato, lo anche in uscita dal sistema. Il valore medio e lafunzione di autocorrelazione del processo in uscita sono legate a quelle del processoin ingresso tramite, rispettivamente, le (3.4.4) e (3.4.7).

    3.5. Analisi Spettrale di un Processo Aleatorio

    Poich si introdotto il problema del filtraggio di un processo aleatorio, pu averesenso la descrizione dello stesso problema in termini spettrali, dato che per il sistema lafunzione di trasferimento facilmente calcolabile. Si deve tuttavia introdurre lanalisifrequenziale per i processi aleatori. Si supporr di studiare le propriet in frequenza peri soli processi aleatori stazionari in senso lato, anche se, concettualmente, possibileanalizzare nel dominio delle frequenze un qualunque processo aleatorio.

    La caratterizzazione di un processo aleatorio in frequenza, in termini di spettro diampiezza e fase normalmente inusuale. E infatti sempre concepibile lestrazionedi una realizzazione x(t) dal processo X(t) e la sua trasformazione secondo Fourier.Tuttavia lanalisi dellintero processo richiederebbe lo studio in frequenza di ogni real-izzazione del processo. Conseguentemente le ampiezze e le fasi dello spettro sarebberocaratterizzate in maniera aleatoria, con relazione tra aleatoriet nel tempo e aleatorietin frequenza non banale.

    E allora pi comune limitarsi alla descrizione degli spettri di potenza del segnalealeatorio. Le realizzazioni di un processo stazionario in senso lato non possono esseresegnali ad energia finita. Infatti tutti i segnali ad energia finita prima o poi, al tenderedi t ! 1 tendono a zero. Se cos fosse anche la funzione valor medio, calcolata pervalori di t ! 1 tenderebbe a zero, e quindi, a meno che non sempre pari a zero,essa non sarebbe pi un valore costante. Quindi generalmente le realizzazioni di unprocesso stazionario in senso lato sono segnali a potenza finita e perci il processoaleatorio ammette spettro di potenza.

    La funzione densit spettrale di potenza di un processo aleatorio la media dellefunzioni densit spettrale di potenza ottenute per le singole realizzazioni:

  • 3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 93

    (3.5.1) Sx(f) = E[Sx(f ;!)] = E[ limT!1

    |= {xT (t;!)}|2T

    ]

    dove loperazione di media va fatta tra tutti i segnali aleatori Sx(f ;!) che si otten-gono prendendo i pezzi delle realizzazioni del processo X(t) che sono compresi tra[T/2, T/2], e cio:

    xT (t;!) = x(t;!) rect( tT)

    e facendone il modulo quadro della loro trasformata di Fourier. La definizione di spet-tro di potenza ricalca quindi quella che si potrebbe fare per un segnale deterministicodi potenza. Lunica differenza dovuta alla presenza di una collezione (anche infinita)di realizzazioni sulla quali non possiamo fare altro che effettuare una media. Questadefinizione del tutto generale, cio valida anche per processi non stazionari.

    Normalmente essa molto difficile da utilizzare, anche per processi stazionari insenso lato. Si utilizza allora nella pratica la definizione dovuta a Wiener-Kintchine. Inbase a questa definizione

    PROPOSITION 3.5.1. la densit spettrale di potenza dei processi stazionari cal-colabile come trasformata di Fourier della funzione di autocorrelazione:

    (3.5.2) Sx(f) =Z +11

    Rx()ej2fd

    Vediamo alcune propriet.(1) La densit spettrale di potenza di un processo aleatorio e stazionario in senso

    lato una funzione reale e pari, dato che la trasformata di Fourier di unsegnale reale e pari

    (2) La potenza statistica media del processo (che si ricordi una costante, datala stazionariet del processo) pari allintegrale della densit spettrale di fre-quenza su tutto lasse delle frequenze:

    (3.5.3) Px = E[X2(t)] =Z +11

    Sx(f)df

  • 3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 94

    (3) la densit spettrale di potenza una funzione non negativa: Sx(f) 0.Questultima propriet discende direttamente dalla definizione diretta, e nondalla definizione di Wiener-Kintchine.

    3.5.1. Filtraggio di un processo stazionario. Riprendiamo allora il problema delfiltraggio visto in fig. 3.4.2 di un processo stazionario e vediamo come ora si pucaratterizzare la densit spettrale del processo in uscita, nota la densit spettrale delprocesso in ingresso. Sappiamo infatti che, se il processo in ingresso stazionario insenso lato, lo anche quello in uscita.

    La densit spettrale del processo in uscita vale:

    (3.5.4) Sy(f) = F {Rx() ? h() ? h()} = Sx(f)H(f)H(f)

    Inoltre, poich il sistema si suppone reale, H(f) = H(f), si ha:

    (3.5.5) Sy(f) = Sx(f) |H(f)|2

    che la stessa relazione che vale per gli spettri di potenza dei segnali deterministici.La risposta in fase del sistema non influenza la densit spettrale del processo in uscita.

    Nella densit spettrale di potenza sono quindi contenute tutte le informazioni spet-trali del processo e cio come si distribuisce la potenza sulle varie componenti ar-moniche, dato che Sx(f) si comporta come la densit spettrale di potenza di un segnaledeterministico.

    Conseguentemente il significato di densit spettrale di potenza lo stesso per i seg-nali deterministici e per i processi aleatori: una fettina spettrale alla frequenza f rapp-resenta il contenuto in potenza del processo sulla sinusoide a frequenza f moltiplicatoper la banda passante infinitesima intorno a f , df : dPx(f) = Sx(f)df .

    EXAMPLE 3.5.2. Calcoliamo la densit spettrale di potenza del processo vistoin (3.1.2): X(t) = A sin(2fot + ), con = U [0, 2[. Poich il processo stazionario in senso lato, la sua densit spettrale di potenza pu essere calcolatasecondo la definizione di Wiener-Kintchine. Poich si gi trovato che: Rx() =a2

    2 cos(2fo), la densit spettrale di potenza vale:

    (3.5.6) Sx(f) = Fa2

    2cos(2fo)

    =a2

    4[(f fo) + (f + fo)]

  • 3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 95

    La potenza dellintero processo quindi concentrata sulla frequenza fo.La funzione di autocorrelazione misura, come gi detto, la velocit di variazione e

    lautosomiglianza di un processo con s stesso. Poich la densit spettrale di potenza la trasformata di Fourier della funzione di autocorrelazione (per i processi stazionari),allora anche la densit spettrale di potenza pu caratterizzare un processo. In parti-colare, quanto pi rapidamente variano le singole realizzazioni di un processo, tantopi larga la banda passante della densit spettrale di potenza, dato che ad una bandalarga corrisponde una funzione di autocorrelazione piccola. Quindi a variazioni rapidecorrispondono termini spettrali a potenza non nulla sempre pi in alta frequenza. Nellafigura 3.5.1 riportata una singola realizzazione di tre processi, ciascuno dei quali pre-senta una densit spettrale di potenza a banda crescente. Si osservi come, al cresceredella banda aumenta non solo la rapidit di variazione della realizzazione, ma anchelampiezza delle escursioni, e cio la potenza complessiva del segnale

    8000

    1

    0.5

    0

    0.5

    1

    1.5

    0 1000 2000 3000 4000 5000 6000 70001.5

    8000

    1

    0.5

    0

    0.5

    1

    1.5

    0 1000 2000 3000 4000 5000 6000 70001.5

  • 3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 96

    8000

    1

    0.5

    0

    0.5

    1

    1.5

    0 1000 2000 3000 4000 5000 6000 70001.5

    FIGURA 3.5.1. Esempio di tre processi a banda crescente nello spettrodi potenza

    3.5.2. Processo aleatorio bianco. Si supponga ora di considerare un processo lacui densit spettrale di potenza ha una banda che cresce illimitatamente, pur mantenen-do lo stesso valore per f = 0. La funzione di autocorrelazione di tale processo tenderad un valore piccolissimo (la funzione non assomiglia quasi per niente a s stessa evaria sempre pi rapidamente). Al limite per f ! 1 la funzione di autocorrelazionediventa impulsiva e quindi la densit spettrale di potenza diventa costante su tutto lospettro di frequenze:

    (3.5.7) Rx() = n () , Sx(f) = n

    A tale tipo di processo, astrazione matematica di molti fenomeni reali, si d il nomedi processo di rumore bianco. Il nome rumore bianco deriva dal fatto che tutte le com-ponenti spettrali sono ugualmente rappresentate, cos come tutti i colori sono ugual-mente rappresentati nel processo di composizione della luce bianca. Il valor medio diquesto processo nullo, dato che il valor medio pari al lim!1Rx() = 0. Inoltresi capisce bene che tale processo solo una idealizzazione, dato che esso dovrebbepossedere potenza infinita, condizione impossibile per un qualunque processo chemodelli un segnale fisico.

    Una delle applicazioni pi comuni di questa idealizzazione consiste nel modella-mento del rumore termico. Un comune resistore, oltre a presentare una certa resistenzaR, presenta anche una debole tensione di rumore, dovuta alla casuale agitazione ter-mica degli elettroni nel materiale che compone il resistore. Questa agitazione termica tanto pi elevata quanto pi alta la temperatura assoluta alla quale si trova il resis-tore. Il modello che normalmente si utilizza allora quello di considerare il resististore

  • 3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 97

    ideale e di porre in serie ad esso un generatore di tensione con tensione pari a n(t) V ,dove n(t) un processo casuale, responsabile della produzione di rumore termico.Lespressione che assume la densit spettrale di potenza del rumore termico deriva daconsiderazioni di carattere quantistico (e quindi non verr effettuata in questa sede) edassume la forma:

    (3.5.8) Sn(f) = kTR|f | /fo

    e|f |/fo 1

    dove il valore di fo : fo = kTR/h, con k = 1.38 1023J/K costante di Boltzmann,h = 6.62 1034J s costante di Plank e TR temperatura assoluta del resistore. Allatemperatura ambiente il valore di fo estremamente alto ( 6THz). Poich i valoridi frequenza che normalmente si utilizzano nelle applicazioni pratiche sono molto pibassi, lespressione precedente si pu approssimare come segue:

    (3.5.9) Sn(f) = kTR|f | /fo

    e|f |/fo 1 kTR

    cio come una costante. Il processo di rumore bianco quindi, in questo caso, un utileidealizzazione di una situazione reale. Un circuito elettrico infatti che sia compostoda un filtro con banda passante B fo, vedr la densit spettrale del processopraticamente come piatta.

    EXAMPLE 3.5.3. Si voglia determinare la densit spettrale di potenza del processoin uscita dal sistema riportato in figura 3.5.2, conN(t) un processo stazionario in sensolato e densit spettrale di potenza costante e pari ad n.

    Il primo blocco effettua una media pesata del segnale in ingresso su un intervallo[t T, T ]:

    (3.5.10)1

    T

    Z ttT

    ()d

    La sua risposta allimpulso vale allora: g(t) = 1T rect(tT/2T ). Il secondo blocco un

    filtro passa banda ideale, con banda pari a 2/T intorno ad f0, con f0T 1. Infine ilmoltiplicatore moltiplica per un oscillatore locale la cui espressione del tipo: p(t) =2 cos(2f0t+), quindi in realt un processo, con variabile aleatoria con densitdi probabilit uniforme in [0, 2[.

  • 3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 98

    0

    N(t) X(t) Y(t) Z(t)H(f)g(t)

    p(t)

    f f0

    2/T

    0f

    | H(f) |

    FIGURA 3.5.2. Sistema dellesempio e filtro passa banda H(f)

    Poich il processo in ingresso stazionario in senso lato e il blocco g(t) linearee tempo invariante, anche il processo in uscita X(t) stazionario in senso lato. Il suovalor medio : x = nG(0) = 0 G(0) = 0, essendo il processo in ingresso a medianulla. La funzione di autocorrelazione di X(t) :

    (3.5.11)

    Rx() = Rn() ? g() ? g() = n() ? rg() = nrg() = nT(1 | |

    T)rect(

    2T)

    e dipende solo da . La corrispondente densit spettrale di potenza vale: Sx(f) =F {Rx()} = n sinc2(Tf).

    Il processo p(t) sappiamo che stazionario, avendo valor medio nullo e funzione diautocorrelazione pari a: Rp() = 2 cos(2fo). La funzione valor medio del prodottotra le due :

    (3.5.12) y(t) = E[X(t)p(t)] = 2E[X(t) cos(2f0t+)]

    Poich la v.a. indipendente dalla sinusoide in cui contenuta (allinterno del pro-cesso p(t)) lo a maggior ragione anche dal processo X(t). Quindi laspettazionedel prodotto pari allaspettazione presa separatamente dei singoli processi: y(t) =E[X(t)p(t)] = E[X(t)]E[p(t)] = 0. La funzione di autocorrelazione vale:

  • 3.5. ANALISI SPETTRALE DI UN PROCESSO ALEATORIO 99

    Ry(t, t ) = E[Y (t)Y (t )] =

    = 4E[X(t)X(t ) cos(2f0t+ ) cos(2f0(t ) + )] =

    = 4E[X(t)X(t )] E[cos(2f0t+ ) cos(2f0(t ) + )] =

    (3.5.13) = 2Rx() cos(2f0)

    Anche il processo Y (t) quindi stazionario in senso lato, essendo il suo valor medionullo e la sua funzione di autocorrelazione dipendente solo da . La densit spettraledi potenza la trasformata di Fourier di Ry():

    Sy(f) = F {Ry()} =

    (3.5.14)= n sinc2(fT ) ? [(f fo)+ (f + fo)] = n [sinc2(T (f fo))+ sinc2(T (f + fo))]

    La maggior parte della potenza si spostata attorno ad fo, anche se le code delle fun-zioni sinc2 si sovrappongono sino ad infinito. Leffetto del filtraggio passa banda finale quello di tagliare appunto queste code, in modo da lasciar passare solo la parte dellospettro che contiene pi potenza (vedi in figure 3.5.3 ed 3.5.4 ). Approssimatamentequindi lo spettro di potenza in uscita si pu scrivere come:

    (3.5.15)

    Sz(f) n [sinc2(T (f fo)) rect(f fo2/T

    ) + sinc2(T (f + fo)) rect(f + fo2/T

    )]

  • 3.6. PROCESSI ALEATORI GAUSSIANI 100

    frequenze normalizzate fT

    0.2

    0.4

    0.6

    0.8

    1

    1.2

    15 10 5 0 5 10 150

    FIGURA 3.5.3. Filtraggio del processo Y (t). I valori nellesempioriportato sono: f0T = 5.

    frequenze normalizzate fT

    0.2

    0.4

    0.6

    0.8

    1

    15 10 5 0 5 10 15

    Sz(f)

    0

    FIGURA 3.5.4. Densit spettrale di potenza in uscita dal sistema, Sz(f)

    3.6. Processi Aleatori Gaussiani

    Nellesempio del rumore termico la generazione della tensione di rumore dovutaalla somma della tensione provocata dal movimento casuale degli elettroni. Poichil processo in esame generato dal contributo di molti fenomeni elementari ed in-dipendenti, si pu ritenere che la statistica del processo stesso sia di tipo gaussiano(per il teorema del limite centrale). Poich una grande quantit di fenomeni fisici sicomportano in modo simile, utile studiare le propriet dei processi gaussiani.

    DEFINITION 3.6.1. Un processo aleatorio X(t) gaussiano se scelto n arbitraria-mente grande ed n istanti di tempo t1, t2, ..., tn, le variabili aleatorie

    [X(t1), X(t2), ..., X(tn)] sono congiuntamente gaussiane.

    In questa definizione quindi necessario verificare non solo la gaussianit dellasingola variabile aleatoria che si pu ottenere ad ogni istante t, ma anche del vettorealeatorio [X(t1), X(t2), ..., X(tn)], comunque si scelgano gli istanti di tempo.

    Molti fenomeni fisici sono modellati come processi gaussiani (onde sismiche, voceumana, rumore termico, etc) e questo spiega la centralit di questo tipo di processi nellostudio dei processi stocastici.

  • 3.6. PROCESSI ALEATORI GAUSSIANI 101

    La descrizione statistica completa di un processo possibile solo se nota la suafunzione di densit di probabilit di ogni ordine e per ogni n pla di istanti di tempo:fx(x1, x2, ..., xn; t1, t2, ..., tn). Tuttavia se X(t) gaussiano la densit di probabilitcongiunta ha una forma nota:

    (3.6.1)fX(x1, x2, ..., xn; t1, t2, ..., tn) =

    1p(2)n det |CX |

    exp(12(xX)TC1X (xX))

    dove il vettore aleatorio x quello che si ottiene estraendo le variabili aleatorie[X(t1), X(t2), ..., X(tn)]. Per la conoscenza completa della funzione di densit diprobabilit congiunta (e quindi dellintero processo) sufficiente conoscere quindi lafunzione valor medio e la funzione di autocovarianza; x(t) e Cx(t1, t2). Infatti perogni n pla di istanti di tempo (t1, t2, ..., tn) si ha:

    (3.6.2) X = [x(t1), x(t2), ..., x(tn)]

    Invece per la funzione di autocovarianza si ha: Cx = [cij], dove

    (3.6.3)cij = E[(X(ti) x(ti)) (X(tj) x(tj))] = Cx(ti, tj) = Rx(ti, tj) x(ti)x(tj)

    Una delle propriet notevoli dei processi gaussiani consiste nel fatto che la staziona-riet in senso lato implica la stazionariet in senso stretto (cosa generalmente non ve-ra). Infatti la stazionariet in senso lato equivale ad imporre una funzione valor mediocostante ed una funzione di autocorrelazione dipendente solo dalla differenza degli is-tanti di tempo: X(t) = X e Rx(t1, t2) = Rx(). Se allora si considera ln pla diistanti:

    [t1 +t, t2 +t, ..., tn +t]

    in tali istanti la funzione valor medio non sar cambiata poich una costante. Lafunzione di autocovarianza rimane anchessa costante dato che dipende solo dalledifferenze tra una qualunque coppia di istanti di tempo.

  • 3.6. PROCESSI ALEATORI GAUSSIANI 102

    Poiche infine la funzione di densit di probabilit congiunta del processo dipendesolo da questi due parametri statistici, si pu concludere che il processo stazionario insenso lato lo anche in senso stretto.

    Quando si fa passare un processo attraverso un sistema lineare tempo-invariante,di cui si conosce la funzione di trasferimento, generalmete difficile determinare lafunzione di densit di probabilit congiunta di uscita, anche se nota quella di ingresso.I processi gaussiani fanno eccezione a questa regola: un processo gaussiano che vengafatto passare attraverso un sistema lineare conserva la sua propriet principale di gaus-sianit; inoltre conserva anche la stazionariet se il sistema anche tempo-invariante eil processo in ingresso stazionario.

    Intuitivamente il motivo per cui la statistica del processo non cambia si pu com-prendere osservando loperazione che si effettua quando il processo passa attraverso ilsistema:

    (3.6.4) Y (t) = X(t) ? h(t) =Z +11

    X()h(t )d

    Questa operazione si pu pensare come una somma di infiniti termini, ciascuno delquali vale approssimatamente:

    (3.6.5) X(k)h(t k)

    dove si deve pensare k intero e molto piccolo. Poich allora il processo in uscitaaltro non che una combinazione lineare di tanti processi in ingresso, tutti gaussiani(X(t), calcolato per t = k gaussiano), anchesso gaussiano, comunque si scelgaln pla degli istanti di tempo [t1, t2, ..., tn].

    EXAMPLE 3.6.2. Si consideri un processo gaussiano stazionario con densit spet-trale di potenza:

    (3.6.6) Sn(f) = No(1 |f |B

    )rect(f

    2B)

    e si supponga di far passare questo processo attraverso un campionatore. Il cam-pionatore un sistema che, dato un segnale continuo, ne estrae il valore per particolariistanti di tempo, normalmente equispaziati. A partire da una funzione tempo continua

  • 3.6. PROCESSI ALEATORI GAUSSIANI 103

    costruisce quindi una funzione tempo discreta o, se si preferisce, una successione dinumeri reali.

    Il campionatore campioni il processo agli istanti di tempo k/B. Se k lo facciamovariare da 1, ..., n otterremo n numeri reali

    X(t1 = 1/B), X(t2 = 2/B), ..., X(tn = n/B)

    corrispondenti ad n variabili aleatorie. Si vuole calcolare la densit di probabilitcongiunta di queste n variabili aleatorie fx(x1, x2, ..., xn).

    k/B

    N0

    f

    S (f)

    0 BB

    n

    X(t) X k

    FIGURA 3.6.1. Densit spettrale e schema a blocchi dellesempio 3.6.2

    Si osservi subito che se X(t) un processo a valor medio nullo, anche il processocampionato, essendo linsieme di n v.a. a valor medio nullo, a valor medio nullo.Inoltre la sua funzione di autocovarianza vale:

    cxixj = E[(Xi xi)(Xi xj)] = E[XiXj] = E[X(ti)X(tj)] =

    (3.6.7) = Rx(ti tj) = Rx(i jB

    )

    Poich conosciamo Sn(f) possibile esprimere in forma chiusa anche la funzione diautocorrelazione:

    (3.6.8) Rn() = NoB sinc2(B)

  • 3.7. PROCESSI ERGODICI 104

    Quindi lautocovarianza vale: cxixj = NoB sinc2(i j) = NoB ik (con ik simbolodi Kronecker) ed una matrice diagonale. Questo ci dice che le variabili aleatorieestratte con loperazione di campionamento sono a due a due incorrelate. Essendo in-oltre congiuntamente gaussiane (loperazione di campionamento infatti chiaramentelineare) esse sono a due a due indipendenti. La loro potenza statistica, pari anche allaloro varianza: Rn(0) = NoB. La densit di probabilit congiunta allora il prodottodelle singole densit di probabilit delle v.a. [X1, X2, ..., Xn]:

    f(x1, x2, ..., xn) =nY

    k=1

    f(xk)

    (3.6.9) f(x1, x2, ..., xn) =1p

    (2)n (NoB)nexp(x

    21 + x

    22 + ...+ x

    2n

    2NoB)

    3.7. Processi Ergodici

    I parametri statistici di un processo aleatorio si possono considerare operazionidinsieme, poich sono effettuate sullinsieme delle funzioni campione (o realizzazioni).Ad esempio la funzione valor medio si determina, per ogni istante fissato t, effettuan-do la media di tutte le realizzazioni in t, nota che sia la funzione densit di probabilitdi primo ordine per quellistante. Questa operazione, dal punto di vista teorico noncomporta alcuna difficolt, ammesso che del processo si conosca una forma chiusa,ammesso cio che si sia in grado di scrivere ogni possibile realizzazione del processo,insieme con la funzione di densit di probabilit del primo ordine (o di ordine superioreper le altre statistiche).

    In pratica la funzione di densit di probabilit non nota e a volte non si riescenemmeno a fare delle ipotesi ragionevoli sulla sua forma con misure statistiche sulprocesso in esame. A volte infatti, di un dato processo, possibile misurare soltan-to una singola realizzazione. La domanda che sorge spontanea allora: possibileeffettuare alcune misure sulla singola realizzazione per ottenere un comportamentostatistico generale ? La risposta a questa domanda s, a volte si pu fare, ma cidipende da una particolare propriet che possono possedere i processi aleatori. Questapropriet lergodicit.

    DEFINITION 3.7.1. Un processo aleatorio stazionario in media si dice ergodico inmedia se, con probabilit che tende ad 1 si ha che la media dinsieme coincide con lamedia temporale effettuata sulla singola realizzazione:

  • 3.7. PROCESSI ERGODICI 105

    (3.7.1) P (E[X(t)] = limT!1

    Z T/2T/2

    x(t)dt ) = 1

    Tale definizione nasce infatti dallosservazione che, se si possiede una sola realiz-zazione del processo, pu avere senso effettuare delle misure deterministiche sul quelprocesso (media temporale, misura della autocorrelazione e cos via). In particolare perla misura della media temporale pu accadere che questa sia differente realizzazioneper realizzazione oppure che, anche se sempre uguale per tutte le realizzazioni, siadifferente dalla media dinsieme del processo in esame. Per alcuni processi invececapita che non solo la media temporale uguale per tutte le realizzazioni, ma ancheche questo valore pari a quello che si determina dalla media dinsieme. Tali processisono appunto detti ergodici in media.

    Un processo ergodico in media un processo la cui singola realizzazione si com-porta come tutto il processo in esame dal punto di vista statistico, permette cio misuredi media che dovrebbero essere fatte altrimenti su tutta la statistica del processo stesso.E evidente che, affinch un processo sia ergodico, necessario che sia stazionario, da-to che la media temporale necessariamente un valore singolo e quindi non potrebbemai essere pari ad una funzione del tempo (se il processo non fosse stazionario).

    Si osservi che nella definizione non abbiamo dato una condizione di uguaglian-za con certezza, ma con probabilit tendente ad 1, che una cosa differente. Infattiquando si osserva la singola realizzazione, questa una sola tra le tante che potreb-bero capitare, e quindi il valore che estraiamo della media temporale essa stessa unavariabile aleatoria. Luguaglianza di tale variabile aleatoria con una costante (il valormedio ottenuto come media dinsieme) pu essere fatta solo in termini probabilistici,affermando cio che tale variabile aleatoria ha valor medio che coincide con la mediadinsieme e varianza nulla. Si tenga inoltre presente che nei casi pratici non si puosservare nemmeno tutta la realizzazione (cio da 1 a +1) e quindi quella che siottiene solo una stima del valor medio (che a sua volta una variabile aleatoria).Quello che nella pratica si riesce ad ottenere quindi:

    (3.7.2) XT =1

    T

    Z T/2T/2

    x(t)dt

    la media temporale sar quindi:

    Xm = limT!1

    XT

  • 3.7. PROCESSI ERGODICI 106

    ed inoltre:

    (3.7.3) Xm = limT!1

    XT , 2Xm = limT!1

    2XT ! 0

    anche se questi ultimi risultati non sono accessibili in una situazione reale.Si ricordi infine che, essendo la varianza della variabile aleatoriaXT pari alla funzionedi autocovarianza valutata per = 0, il verificarsi della condizione di ergodicit inmedia subordinato al verificarsi di una determinata condizione (CXT (0) ! 0) checoinvolge la statistica del secondo ordine del processo.

    Per il calcolo della media temporale si definisce un operatore valor medio tempo-rale, che si pu applicare a qualunque segnale x(t) determinato o no:

    (3.7.4) hx(t)i = limT!1

    1

    T

    Z T/2T/2

    x(t)dt

    La propriet di ergodicit in media pu essere allora riscritta nel modo seguente:

    (3.7.5) E[X(t)] = hx(t;!)i

    dove si messo in evidenza che la media temporale stata effettuata sulla particolarerealizzazione estratta dal processo X(t). Se per il processo ergodico tale valore uguale per tutte le realizzazioni e quindi, con notazione non proprio rigorosa si puscrivere:

    (3.7.6) E[X(t)] = hX(t)i

    La dimostrazione che luguaglianza della definizione vale con probabilit pari ad 1 legata alla dimostrazione che la media della variabile aleatoria hx(t)i sia pari al valormedio dinsieme e la sua varianza tenda a zero. Laspettazione della media temporale

  • 3.7. PROCESSI ERGODICI 107

    :

    E[hx(t)i] = E[ limT!1

    1

    T

    Z T/2T/2

    x(t)dt] =

    (3.7.7) = limT!1

    1

    T

    Z T/2T/2

    E[x(t)]dt = limT!1

    1

    T

    Z T/2T/2

    xdt = x

    La varianza della variabile aleatoria hx(t)i invece vale:

    V ar(hx(t)i) = E[(hx(t)i x)2] =

    = E[( limT!1

    1

    T

    Z T/2T/2

    x(t)dt x)2] = limT!1

    E[(1

    T

    Z T/2T/2

    x(t)dt x)2] =

    = limT!1

    E[1

    T 2

    Z T/2T/2

    (x(t) x)dt Z T/2T/2

    (x(t) x)dt] =

    = limT!1

    E[1

    T 2

    Z T/2T/2

    Z T/2T/2

    (x(t) x)(x(t1) x)dtdt1] =

    = limT!1

    1

    T 2

    Z T/2T/2

    Z T/2T/2

    E[(x(t) x)(x(t1) x)]dtdt1 =

    = limT!1

    1

    T 2

    Z T/2T/2

    Z T/2T/2

    Cx(t, t1)dtdt1 = limT!1

    1

    T 2

    Z T/2T/2

    Z T/2T/2

    Cx(t t1)dtdt1 =

    dove lultima uguaglianza vale solo nellipotesi che il processo sia stazionario in sensolato e non solo in media. In questa ipotesi infatti la dimostrazione che la varianzadi hx(t)i va a zero per T ! 1 risulta pi semplice (la dimostrazione nel caso pigenerale pi complessa).Se ora si pone tt1 = u, si osserva che al variare di (t, t1) nel quadrato [T/2, T/2][T/2, T/2], u varia da [T, T ]. Inoltre dtdt1 =

    p2(T |u|)du: si provi infatti a

    calcolare larea del rettangolino che si ottiene spostando di un infinitesimo du la rettat t1 = u (vedi figura 3.7.1).

  • 3.7. PROCESSI ERGODICI 108

    T/2

    tt = utt = u+du1

    1

    t1

    t0T/2 T/2

    T/2

    FIGURA 3.7.1. Calcolo del differenziale nel cambio di variabile t t1 = u

    Quindi:

    (3.7.8) = limT!1

    1

    T 2

    Z TT

    p2(T |u|)Cx(u)du = 0

    dato che la funzione di autocovarianza non pu divergere per nessun valore della vari-abile indipendente. E quindi dimostrata la definizione di ergodicit in media secondola relazione probabilistica.

    Loperatore di media temporale pu essere utilizzato per definire lautocorrelazionedi un segnale deterministico a potenza finita:

    (3.7.9) hx(t)x(t )i = limT!1

    1

    T

    Z T/2T/2

    x(t)x(t )dt

    Risulta allora abbastanza chiaro che il concetto di ergodicit in media pu essere estesaanche alla autocorrelazione, purch il processo sia stazionario non solo in media maanche per quel che riguarda lautocorrelazione, sia cio stazionario in senso lato.

    DEFINITION 3.7.2. Un processo aleatorio stazionario in senso lato ergodico inautocorrelazione se con probabilit pari ad 1 risulta vera luguaglianza;

  • 3.7. PROCESSI ERGODICI 109

    (3.7.10)

    Rx() = E[X(t)X(t )] = hx(t)x(t )i = limT!1

    1

    T

    Z T/2T/2

    x(t)x(t )dt

    Si osservi che lipotesi di stazionariet necessaria per lergodicit in autocor-relazione, dato che altrimenti il processo avrebbe una funzione di autocorrelazionedinsieme dipendente da due variabili, mentre lautocorrelazione temporale dipendechiaramente da una sola variabile. Inoltre, per gli stessi motivi addotti precedente-mente, necessario dare anche in questo caso una definizione in termini probabilistici.

    Lergodicit in autocorrelazione importante poich mediante questa possibiledeterminare la funzione di autocorrelazione dinsieme mediante losservazione di unasingola realizzazione. Dalla funzione di autocorrelazione si pu poi calcolare la densitspettrale di potenza del processo.

    Le condizioni sullergodicit in autocorrelazione del processo coinvolgono grandezzestatistiche del quarto ordine, poich si deve provare che la varianza della variabilealeatoria

    (3.7.11) hx(t)x(t )iT =1

    T

    Z T/2T/2

    x(t)x(t )dt

    tende a zero al tendere di T !1.Un processo ergodico in valor medio e in autocorrelazione si dice ergodico in

    senso lato.

    DEFINITION 3.7.3. Un processo si dice ergodico in senso stretto se la proprietdi ergodicit vale per una qualunque grandezza statistica estratta dal processo (e diqualunque ordine):

    (3.7.12)E[g(X(t), X(t1), ..., X(tn1))] = hg(X(t;!), X(t 1;!), ..., X(t n1;!))i

    EXAMPLE 3.7.4. Dimostriamo che il processo X(t) = a cos(2fot + ), con = U [0, 2[, con a ed fo noti, ergodico in senso lato.

    Abbiamo gi dimostrato che tale processo stazionario in senso lato (quindi ilproblema ben posto). Inoltre si gi trovato che:

  • 3.8. CENNI SULLE CATENE DI MARKOV 110

    (3.7.13) x = 0, Rx() =a2

    2cos(2fo)

    Calcoliamo ora le corrispondenti medie temporali:

    (3.7.14)

    hx(t; )i = limT!1

    1

    T

    Z T/2T/2

    a cos(2fot+)dt = 1T

    Z T/2T/2

    a cos(2fot+)dt = 0

    dato che la media di un qualunque segnale periodico pu essere valutata sul singoloperiodo. Il risultato ottenuto indipendente dal particolare valore di . Il processo quindi ergodico in media.

    Per lautocorrelazione temporale si ha poi:

    hx(t; )x(t ; )i = limT!1

    1

    T

    Z T/2T/2

    a cos(2fot+)a cos(2fo(t ) +)dt =

    =1

    T

    Z T/2T/2

    a cos(2fot+)a cos(2fo(t)+)dt = a2

    2T

    Z T/2T/2

    cos(2fo)dt =

    (3.7.15)a2

    2cos(2fo) = Rx()

    Il processo ergodico anche in autocorrelazione e quindi lo in senso lato.

    3.8. Cenni sulle Catene di Markov

    3.8.1. Qualche definizione sulle catene di Markov. Le catene di Markov sonouna delle applicazioni della teoria dei processi aleatori pi diffusa. Esse sono utilizzatein unenorme variet di contesti poich modellano molto bene una classe di fenomenireali (gli arrivi e le attese in coda).

    Si supponga di considerare un processio aleatorio X(t) e si supponga di volerconoscere qualche propriet della variabile aleatoria X(tk) a partire dalla conoscenzadelle variabili aleatorie X(t1), X(t2), ..., X(tk1), con t1, t2, ..., tk arbitrariamente es-tratti. Si vuole quindi, se possibile, determinare:

  • 3.8. CENNI SULLE CATENE DI MARKOV 111

    (3.8.1) P (X(tk) = xk/X(tk1) = xk1, X(tk2) = xk2, ..., X(t1) = x1)

    DEFINITION 3.8.1. Un processo aleatorio detto di Markov se risulta:

    P (X(tk) = xk/X(tk1) = xk1, X(tk2) = xk2, ..., X(t1) = x1) =

    (3.8.2) = P (X(tk) = xk/X(tk1) = xk1)

    cio se levoluzione del processo dipende soltanto dallosservazione della variabilealeatoria allistante immediatamente precedente, comunque si scelgano t1, t2, ..., tk.La definizione precedente pu anche essere posta in questi termini: levoluzione futuradel processo dipende solo dallo stato attuale del processo e non dagli stati passati.

    Una prima propriet la seguente:

    P (X(tk) = xk, X(tk1) = xk1, ..., X(t1) = x1) =

    P (X(tk) = xk/X(tk1) = xk1, X(tk2) = xk2, ..., X(t1) = x1)

    P (X(tk1) = xk1, X(tk2) = xk2, ..., X(t1) = x1) =

    = P (X(tk) = xk/X(tk1) = xk1)

    P (X(tk1) = xk1, X(tk2) = xk2, ..., X(t1) = x1) =

    = P (X(tk) = xk/X(tk1) = xk1) P (X(tk1) = xk1/X(tk2) = xk2) ...

    (3.8.3) ... P (X(t1) = x1)

  • 3.8. CENNI SULLE CATENE DI MARKOV 112

    Naturalmente lultima quantit, cio P (X(t1) = x1) una probabilit non condizion-ata e deve essere nota a priori.

    DEFINITION 3.8.2. Una catena di Markov detta omogenea quando le probabilitcondizionate non dipendono dallorigine dellasse dei tempi ma solo dalla differenzatra i tempi considerati:

    (3.8.4)P (X(tk) = xk/X(tk1) = xk1) = P (X(tk +t) = xk/X(tk1 +t) = xk1)

    I processi di Markov che assumono solo valori discreti sono detti catene diMarkov.Le catene di Markov possono essere tempo discrete o tempo continue a seconda cheevolvano o no in modo discreto.

    3.8.2. Catene di Markov tempo discrete. Per le catene di Markov discrete al-lora possibile scrivere le probabilit di transizione ad un passo, cio: pij = P (Xn+1 =i/Xn = j), dove levoluzione temporale nel caso di catene discrete indicato con unindice sul processo aleatorio: X(tn) = X(n t) = Xn. E allora possibile raggrup-pare in forma matriciale le probabilit ad un passo, a seconda dei valori che il processoaleatorio pu assumere. Naturalmente questa matrice pu anche essere di dimensioneinfinita se il numero dei valori possibili assunti dal processo infinito:

    (3.8.5) P =

    266664p00 p01 ... p0n ...p10 p11 ... p1n ......

    ... . . ....

    ...pn0 pn1 ... pnn ...... ... ... ... ...

    377775

    La somma degli elementi su una riga deve necessariamente essere pari ad 1 (da uno sta-to il processo deve capitare con probabilit 1 in uno qualunque degli altri stati possibili:

    (3.8.6)Xj

    pij = 1

    Generalizzando la definizione precedente si pu anche definire la probabilit ditransizione ad k passi:

  • 3.8. CENNI SULLE CATENE DI MARKOV 113

    (3.8.7) pij(k) = P (Xn+k = i/Xn = j)

    Si fa vedere facilmente che: pij(2) =P

    k pikpkj , cio la probabilit di transizionea due passi si determina effettuando il prodotto della riga i sima per la colonnaj sima della matrice di transizione ad un passo. Allora possibile costruire facil-mente la matrice di transizione a due passi, dato che:

    (3.8.8) P (2) = P P = P 2

    e, generalizzando:

    (3.8.9) P (k) = P P ... P| {z }kvolte

    = P k

    Se si vuole determinare la probabilit che allistante tn una singola realizzazionedel processo abbia valore pari a xi, si trova che:

    P (Xn = i) =

    (3.8.10)=Xj

    P (Xn = i/Xn1 = j) P (Xn1 = j) =Xj

    pijPi(n 1) =Xj

    pij(n)Pi(0)

    Dato un processo aleatorio che risulta essere anche una catena di Markov tempo disc-reta, normalmente le quantit note sono la matrice di transizione ad un passo e leprobabilit iniziali del processo, cio le: Pi(0) = P (Xo = i).

    DEFINITION 3.8.3. Una catena di Markov tempo discreta ammette equilibrio seesiste il limite:

    (3.8.11) limn!1

    Pi(n) = i

  • 3.8. CENNI SULLE CATENE DI MARKOV 114

    Si vuole vedere cio se le probabilit, per tempi di osservazione lunghi si stabiliz-zano o variano continuamente.

    DEFINITION 3.8.4. Una catena di Markov si dice stazionaria se, ammettendoequilibrio risulta: i = Pi(0).

    In una catena di Markov stazionaria si dimostra facilmente che 8n : Pi(n) = i.3.8.3. Catene di Markov tempo continue. Le catene di Markov tempo continue

    sono caratterizzate dal fatto che, seppure le singole realizzazioni del processo aleatorioassumono valori discreti, il cambiamento di stato avviene ad istanti qualunque e nonper istanti discreti prefissati. Naturalmente vale il concetto generale che definisce lecatene di Markov: levoluzione per stati futuri dipende solo dallo stato attuale delprocesso. Vale anche la definizione di catena omogenea, dato che questa stata datain forma genericamente continua.

    Le proabilit di transizione da uno stato ad un altro possono ancora essere definite,ma ora sono genericamente funzioni del tempo:

    (3.8.12) P (X(s+ t) = i/X(s) = j) = Pij(t)

    Nel caso di catene di Markov tempo continue utile definire il cosiddetto tempo dipermanenza in un possibile stato. Questo tempo di permanenza normalmente unavariabile aleatoria, dato che la transizione da uno stato al successivo avviene in un is-tante non prevedibile. Se allora si vuole calcolare: P (Ti t) oppure la P (Ti > t) siha:

    P (Ti > t+ s/Ti > s) = P (Ti > t+ s/X(s0) = i, 0 s0 s) =

    cio la probabilit che il tempo di permanenza superi lintervallo t + s, noto che rimasto nello stato i un tempo almeno pari ad s,

    = P (Ti > t+ s/X(s) = i) =

    se ora supponiamo la catena omogenea:

  • 3.8. CENNI SULLE CATENE DI MARKOV 115

    (3.8.13) = P (Ti > t/X(0) = i) = P (Ti > t)

    La relazione precedente soddisfatta da una variabile aleatoria di tipo esponenziale:P (Ti > t) = eit. Quindi il tempo di permanenza modellabile come una variabilealeatoria esponenziale per catene di Markov tempo continue ed omogenee. La quantit1/i il tempo medio di permanenza nello stato i, mentre i si pu ritenere il numeromedio di volte che il sistema fuoriesce dallo stato i nellunit di tempo.Detta allora qij la probabilit di passare dallo stato i allo stato j, si ha che la probabilitdi saltare da uno stato i ad uno stato j in un tempo piccolo :

    (3.8.14) Pij() = (1 Pii()) qij iqij [+O(2)]

    La quantit ij = iqij quindi il numero medio di transizioni che si effettuanonellunit di tempo dallo stato i allo stato j.

    DEFINITION 3.8.5. Una catena di Markov tempo continua ammette equilibrio seal limite di t!1 la probabilit che il processo sia fermo su un particolare stato i nondipende pi dalla variabile tempo, cio se

    (3.8.15) 9 limt!1

    Pi(t) = pi

    Per tali catene possibile costruire un diagramma delle frequenze di transizione distato, che mediante una rappresentazione con nodi ed archi permette di rappresentarele probabilit di transizione e quelle di permanenza in un determinato stato (vedi figura3.8.1).

  • 3.8. CENNI SULLE CATENE DI MARKOV 116

    1 2

    3

    12

    21

    13

    31

    3223

    FIGURA 3.8.1. Grafo delle probabilit di transizione per una catena diMarkov tempo continua costituita da soli tre stati

    Tali grafi sono governati dal seguente sistema di equazioni lineari (facilmente ri-cavabile in base alle considerazioni precedenti):

    (3.8.16)Xii6=j

    ji pj =Xii6=j

    ij pi

    dove le pi sono le probabilit che il sistema si trovi nello stato i e ij il numero mediodi transizioni dallo stato i allo stato j.