Appunti dalle lezioni del corso di Teoria dei segnali...

27
1 Appunti dalle lezioni del corso di Teoria dei segnali DISTRIBUZIONE GAUSSIANA UNIDIMENSIONALE Prof.Alessandro Neri

Transcript of Appunti dalle lezioni del corso di Teoria dei segnali...

  • 1

    Appunti dalle lezioni del corso di Teoria dei segnali DISTRIBUZIONE GAUSSIANA UNIDIMENSIONALE Prof.Alessandro Neri

  • 2

    INDICE : -Distribuzione Gaussiana unidimensionale……………………………………………………pag.3 -funzione caratteristica…………………………………………………………………………..pag.5 -Funzione d’errore………………………………………………………………………………..pag.5 -Momenti…………………………………………………………………………………………...pag.7 -Distribuzione Gaussiana N-dimensionale……………………………………………………pag.8 -Funzione caratteristica………………………………………………………………………...pag15 -Funzione di densità di probabilità condizionata…………………………………………..pag.19. -Distribuzione Gaussiana bidimensionale…………………………………………………..pag.22 -

  • 3

    Distribuzione Gaussiana unidimensionale

    2 - DISTRIBUZIONE GAUSSIANA UNIDIMENSIONALE DEF.1- Una variabile aleatoria unidimensionale si dice gaussiana o a distribuzione normale, se la sua f.d.p. è del tipo:

    22

    2

    )(

    21

    )( σσπ

    mx

    x exP−

    = )1(

    con 2σ 0. Si noti che tale f.d.p. è completamente descritta da due parametri m e 2σ che rappresentano rispettivamente il valore atteso e la varianza della v.a. X. Per la verifica di cio’ si può fare inizialmente riferimento alla v. a. centrata e normalizzata Y con

    σ

    mxY

    −= )2(

    In tal caso,essendo l’integrando una funzione dispari,si ha:

    { } 02

    2

    2

    ==−

    ∞−∫ dye

    yyEy

    y π )3(

    Ed inoltre per la varianza di y si ha:

    ( ){ } 12222

    1 2222222

    2

    222

    =+

    −=−==−= ∫∫∫

    ∞−

    −∞

    ∞−

    −−∞

    ∞−

    −∞

    ∞−

    dyeeydeydyeyyE

    yyyy

    yyy ππππµσ )4(

    Conseguentemente essendo : X= σ y + m )5(

  • 4

    Distribuzione Gaussiana unidimensionale_______________________________________________________________ Si ha:

    { } { } mmyExEm yxx =+⋅== σ )6(

    ( ){ } { } { } 22222 σσσσ ==⋅=−= yEyEmxE yyxx )7( c.v.d. La f.d.p. gaussiana unidimensionale e la relativa funzione di distribuzione sono riportate in fig.1a e 1b rispettivamente.

    Come si vede da tale figura, la f.d.p. è simmetrica rispetto a m e unimodale (cioè con un solo massimo). Inoltre la probabilità che la v.a. cada nell’ intervallo [m-σ ,m+σ ] è pari a 0.683. Analogamente la probabilità che la v.a. x cada nell’intervallo [m-2σ ,m+2σ ] è pari a 0.954 mentre, la probabilità che essa cada nell’intervallo [m-3σ ,m+3σ ] è pari a 0.977.Per tale ragione le specifiche degli errori di picco sono convertite in valori a 3σ nei casi pratici qualora venga adottato un modello gaussiano per tali errori.

  • 5

    Distribuzione Gaussiana unidimensionale_______________________________________________________________ 2.1-FUNZIONE CARATTERISTICA Per il calcolo della funzione caratteristica Px(?) si può procedere considerando ancora la v.a.

    centrata e normalizzata y per la quale si ha: σ

    xmy

    +=

    ( )( )

    22

    2

    2222

    2222

    2 222

    222

    442

    222ξπ

    πξ

    ξπξπ

    ξππξ

    πππξ

    πξ −∞

    ∞−

    −−

    −−∞

    ∞−

    −−−−∞

    ∞−

    − ==== ∫∫∫ edye

    edyee

    dye

    eP

    jyyjyy

    y

    yj

    )8(

    Pertanto poiché x =σ y-m si ha :

    ( )( )

    ( )( ) 2222

    2

    2222

    2

    2

    221

    21 σξππξπξσ σξ

    σσ

    πσ

    σπσξ −−−

    −−−

    ==

    ℑ=

    ℑ= eeeP

    mxeeP mjmjy

    mx

    x )9(

    2.2- FUNZIONE D’ERRORE La funzione di distribuzione Dx(x) non può essere espressa per mezzo di funzioni elementari. Pertanto in passato sono stati sviluppati algoritmi per il calcolo numerico di tale funzione,nonché espressioni asintotiche. In generale, nella letteratura, più che alla funzione di distribuzione si fa riferimento alla funzione d’ Errore. La definizione di tale funzione non è universale,pertanto occorre ogni volta controllare la definizione adottata dal singolo autore. La definizione qui adottata è la seguente :

  • 6

    Distribuzione Gaussiana unidimensionale______________________________________________________________ Funzione d’ errore

    ( ) ∫ −∆

    =x

    t dtexerf0

    22π

    )10(

    Funzione d’ errore complementata

    ( ) ( ) dtexerfxerfcx

    t∫∞

    −=−=22

    )11(

    In base a tali definizioni si ha che

    ( )( )

    −−=

    −+==−

    ∞−∫ σσσπ

    σ

    2211

    21

    21

    21 2

    2

    2 mxerfcmxerfdtexDmtx

    x )12(

    Una buona approssimazione della funzione d’ errore complementata, per grandi valori dell’ argomento è data da

    ( ) 21 xex

    xerfc −≅π

    )13(

    Tale approssimazione asintotica può essere ottenuta integrando per parti la (11) ottenendo

    ( ) dtet

    edet

    xerfc tx

    xt

    x

    222

    2

    111212 −

    ∞−−

    ∫∫ −=−= πππ )14( Poiché il secondo integrando è ovviamente positivo si ha

    ( ) 21 xex

    xerfc −≤π

    )15(

    Ed inoltre il contributo trascurato tende a zero al tendere di x a + ∞ Migliori approssimazioni, ovviamente più complesse,sono riportate in [BURJESSON e SSUNDBERG,1979].

  • 7

    Distribuzione Gaussiana unidimensionale______________________________________________________________

    2.3-MOMENTI I momenti centrati ( )11xµ di ordine n di una v.a.gaussiana valgono :

    ( )

    ( )

    −⋅⋅⋅⋅=

    parin 1....531

    disparin 011nx n σ

    µ )16(

    Una dimostrazione della precedente relazione può essere ottenuta tramite l’impiego della funzione caratteristica della v.a. centrata e normalizzata y data dalla (2) osservando che :

    { }( )

    ( )( ) ( )

    −⋅⋅⋅⋅=

    −=

    −= =

    = 1....5310

    21

    21

    0

    2

    0

    22

    nded

    jd

    Pd

    jyE n

    n

    nny

    n

    nn

    ξ

    ξπ

    ξ ξπξ

    ξ

    π )17(

    da cui ricordando che ( ) ( ){ } { } { }nynnnynxxnx yEyEmxE σσµ ==−= )18( segue immediatamente la (13) c.v.d.

  • 8

    Distribuzione Gaussiana N-dimensionale_______________________________________________________________ 3-DISTRIBUZIONE GAUSSIANA N-DIMENSIONALE DEF-2 : Una variabile aleatoria x N-dimensionale si dice gaussiana, o a distribuzione normale, se la sua f.d.p. congiunta è del tipo

    ( )( ) [ ]

    ( ) ( )xxTx mxkmx

    x

    Nx ek

    xP−−− −

    =1

    21

    2 det2

    1

    π )19(

    in cui Kx è una matrice (NxN) definita positiva. La condizione che Kx sia definita positiva assicura l’ esistenza dell’inversa 1−xK e la convergenza dell’ integrale della f.d.p. . Una definizione più generale che include il caso in cui Kx sia semidefinita positiva può essere ottenuta facendo ricorso alla funzione caratteristica e verrà introdotta nel seguito. Il vettore mx e la matrice Kx rappresentano rispettivamente il valore atteso e la matrice di covarianza della v.a. (come verrà dimostrato nel seguito). Una notazione comune per indicare un v.a. gaussiana è la seguente : ( )xx kmNx ,≈ )20( Prima di dimostrare che mx e Kx rappresentano il valore atteso e la matrice di covarianza della v. a. è utile dimostrare la seguente proprietà PROPRIETA’ 1- Una trasformazione lineare invertibile Y=AX di un av.a. gaussiana è ancora gaussiana con

    T

    xy

    xy

    AAKK

    mAm

    =

    =

    ).21().21(

    ba

  • 9

    Distribuzione Gaussiana N-dimensionale_______________________________________________________________ PROVA- Per dimostrare tale proprietà si può applicare direttamente la regola del cambiamento di variabile e osservando che il determinante jacobiano è proprio pari a det[ ]1−A si ha :

    ( ) ( ) [ ]( ) ( )

    ( ) [ ] [ ]( )

    ( ) ( ) ( )

    ( ) [ ] [ ]( )2221

    22

    21

    11

    detdet2detdet2det

    111111

    AK

    e

    AK

    eAyAPyPx

    N

    mAyAKAmAy

    x

    N

    myAKmyA

    xy

    xxTT

    xxxT

    x

    ππ

    −−−−−−

    −−

    −−−−−−

    ==⋅= )22(

    ovvero ponendo xy mAm = ,

    Txy AAKK = e ricordando che

    ( ) ( )

    [ ] [ ] [ ]( )211111

    detdetdet AKK

    AKAAAKK

    xy

    x

    TTxy

    ⋅=

    == −−−−−

    ).23().23(

    ba

    si ha che :

    ( )( ) [ ]

    ( ) ( )yyTy myKmy

    yNy eK

    yP−−− −

    =1

    21

    2 det21

    π )24(

    c.v.d. Per il calcolo del valore atteso mx e della matrice di covarianza Kx conviene fare riferimento inizialmente ad una variabile aleatoria centrata e normalizzata yo : yo~ N (O, I) )25(

  • 10

    Distribuzione Gaussiana N-dimensionale_______________________________________________________________ In tal caso la f.d.p. Pyo (yo) diviene :

    ( )( )

    2

    1

    21

    20

    2

    00

    0 21

    21 oiT yN

    i

    yy

    Ny eeyP−

    =

    ∏== ππ )26( Da cui si ha immediatamente che, essendo le v. a. marginali yoi mutuamente statisticamente indipendenti con f.d.p. gaussiana a valore atteso nullo e varianza unitaria, il valore atteso di yo è nullo e la sua matrice di covarianza è pari alla matrice identità I :

    { }{ } jiyyEyE

    jioooy

    oy

    ji

    io

    ≠∀=

    =

    ,0

    0

    ).27().27(

    ba

    ovvero

    { }( )( ){ } ImymyEKyEm

    Tyoyoyy

    oyy

    oooo

    oo

    =−−=

    == 0

    ).28().28(

    ba

    Ciò posto per derivare il valore atteso e la matrice di covarianza della v.a. x è utile introdurre la seguente proprietà nota come Teorema di decomposizione di Cholesky : TEOREMA1- (Decomposizione di Cholesky) Data una matrice A definita non negativa, esiste ed è unica una matrice B triangolare in basso con elementi positivi o nulli sulla diagonale principale tale che : BBA T= )29( La dimostrazione di tale teorema è riportata in appendice insieme all’ algoritmo per il calcolo della matrice B.

  • 11

    Distribuzione Gaussiana N-dimensionale_______________________________________________________________ In virtù di tale teorema data una v.a. x : x~N(mx, Kx ) )30( da essa è sempre possibile,essendo Kx e quindi 1−xK definita positiva , derivare tramite la trasformazione lineare : yo=B (x-mo ) )31( Con BBK Tx =

    −1 )32( Una v.a. yo~ N(O,I) infatti in base alla (21.b) si ha :

    ( ) ( ) IBBBBBBBBBKBBBKK TTTTTxTxy ===== −−−−− 10 1111 )33(

    Poiché quindi xo myBx +=

    −1 )34( Ricordando le proprietà delle trasformazioni linari si ha:

    { } { }

    ( )( ){ } { }( ) ( ) ( )( ) ( ) ( ) xxTTTTToooyTxxx

    xxoyx

    KKBBBBBIBByyEBmxmxE

    e

    mmyBExEo

    ======−−

    =+=

    −−−−−−−−

    11111111

    1

    )36(

    )35(

    c.v.d. Si noti che la trasformazione (29) è tale da trasformare un avariabile aleatoria gaussiana x con valore atteso mx e matrice di covarianza Kx in una v. a. gaussiana con componenti centrate,normalizzate e incorrelate. Per tale motivo l’ operatore B è noto nella letteratura con il termine di matrice (o filtro) sbiancante.

  • 12

    Distribuzione Gaussiana N-dimensionale_______________________________________________________________ TEOREMA2-Qualora le variabili aleatorie risultino incorrelate la matrice di covarianza Kx diviene diagonale, ovvero

    =

    2

    2

    2

    ...00............0...00...

    2

    1

    N

    x

    x

    xK

    σ

    σσ

    )37(

    conseguentemente anche la sua inversa 1−xK è digonale :

    =−

    2

    2

    2

    1

    1...00

    ............

    0...1

    0

    0...01

    2

    1

    Nx

    x

    x

    xK

    σ

    σ

    σ

    )38(

    e la f.d.p.congiunta si riduce a

    ( )( )

    ∏=

    −−

    =N

    i

    mx

    xx

    ix

    ixi

    i

    exp1

    2 2

    2

    21 σσπ

    )39(

    per cui risulta dimostrato il seguente teorema.

  • 13

    Distribuzione Gaussiana N-dimensionale_____________________________________________________________ TEOREMA2-Variabili aleatorie congiuntamente gaussiane incorrelate risultano anche statisticamente indipendenti . Si noti che in base alla definizione di f.d.p. gaussiana N-dimensionale, il luogo dei punti dello spazio per cui la densità di probabilità risulta costante è costituito dai punti per i quali risulta costante l’ esponente dell’ equazione ( ) ovvero per i quali ( ) ( ) 0'1 〉=−− − CmxKmx xxTx )40( Tale equazione rappresenta quindi un iperellissoide con centro nel punto mx i cui semiassi principali sono proporzionali alla radice quadrata degli autovalori della matrice Kx (che coincidono con gli inversi degli autovalori della matrice di covarianza K 1−x . Inoltre le direzioni degli assi principali coincidono con quelle degli autovettori di Kx (ovvero di 1−xK ).Pertanto la matrice di covarianza determian la grandezza e l’ orientamento di tali iperellissoidi che chiameremo “iperellissoidi di concentrazione”. Se le variabili aleatorie marginali sono incorrelate Kx è diagonale e quindi gli assi principali degli iperellissoidi sono paralleli agli assi coordinati ed i semiassi sono proporzionali ai valori iii K=σ . A questo punto si può comprendere come considerando una trasformazione di coordinate che assuma come nuova base quella individuata dagli assi principali degli iperellissoidi di concentrazione,e che consiste quindi in una semplice rotazione, si ottenga una nuova v.a. ancora gaussiana ma v. a. marginali incorrelate e con varianze proporzionali agli autovalori di K. Tale proprietà può essere dimostrata in modo rigoroso facendo ricorso alle procedure di diagonalizzazione di forme quadratiche definite positive. Si noti che tale trasformazione non coincide con quella individuata dal filtro sbiancante. D’ altronde la trasformazione lineare che

  • 14

    Distribuzione Gaussiana N-dimensionale___________________________________________________________ diagonalizza una forma quadratica non è unica e per poterla individuare in modo univoco occorre porre ulteriori vincoli che nel caso in questione sono identificabili in : a) filtro sbiancante : Ttrasformazione con matrice triangolare in basso b) rotazione : trasformazione con matrice Q tale che

    IQQQQ TT ==

  • 15

    Distribuzione Gaussiane N-dimensionale_______________________________________________________________ 3.1-FUNZIONE CARATTERISTICA Anche per il calcolo della funzione caratteristica Px(ξ) si può procedere considerando inizialmente il caso di una v.a. con componenti centrate, normalizzate e incorrelate ed applicare successivamente la decomposizione di Cholesky. Data una v.a. Y0∼N(O,I), poiché le singole componenti sono statisticamente indipendenti in base alla (8) si ha :

    ( ) { } ξξπξπξππξξπξ T

    N

    ii

    iiT

    eeeeEeEPN

    i

    N

    i

    yj

    yyj

    yy

    21

    22220

    0

    0

    00

    22

    1

    2

    1

    22 −−

    =

    =

    −− =∑

    ==

    == =∏∏ )41(

    pertanto,poiché xmyBx +=−

    0

    1 e [ ] 21

    1 )(det)det( xKB =−

    si ha :

    ( )( ) [ ]

    ( ) ( )

    [ ] ( )( ) ( )

    =

    ℑ=

    ℑ=−−−−−− − x

    TTxxx

    Tx mxBBmx

    Nx

    mxKmx

    xNx eK

    eK

    P 21

    221

    2 21

    det1

    det21 1

    ππξ

    ( )( ) ξξπξπξξπξπ xTTxTTTx KmjBBmj eeee2112 2222 −−−− ==

    −−

    )42( In base atale relazione, in cuicompare direttamente la matrice di covarianza Kx e non la sua inversa, è possibile introdurre la seguente definizione alternativa di v.a. gaussiana che estende la def.1 al caso in cui Kx sia definita non negativa. DEF.2- Una variabile aleatoria x N-dimensionale si dice gaussiana, o a distribuzione normale se la sua funzione caratteristica è del tipo

    ( ) ξξπξπξ xTxT Kmjx eeP222 −−= )43(

  • 16

    Distribuzione Gaussian N-dimensionale________________________________________________________________ con Kx matricce definita non negativa . Tramite la funzione caratteristica , è possibile estendere facilmente la proprietà 1 al caso di trasformazione lineare y=Ax qualsiasi. PROPRIETA’ 1’- Una trasformazione lineare y=Ax di una v. a. gaussiana X∼N (mx, Kx) è ancora gaussiana con

    T

    xy

    xy

    AAKK

    mAm

    =

    =

    ).44(

    ).44(

    b

    a

    Prova- Per definizione la funzione caratteristica Py (ξ ) di y è pari a :

    ( ) { } { } ( ) ( ) ξπξξπξπξπξπ ξξ TxTTTxTTTT AAKAmjTxxAjxxAjxyjyy eeAPeEeEeEP 22222 −−−−− ===== )45( E quindi y è una v. a. gaussiana a valor atteso e matrice di covarianza data dalle (44.a) e (44.b) rispettivamente. Utilizzando la precedente proprietà è facile dimostrare inoltre la proprietà seguente. PROPRIETA’ 2- ogni variabile marginale xM M-dimensionale di una v. a. x gaussiana N- dimensionale è ancora gaussiana. Prova: Per la dimostrazione di tale proprietà si può assumere, senza perdita di generalità che xM sia costituito dalòle prime M componenti di X e che quindi X possa essere espresso come segue

    =

    − MN

    M

    xx

    x )46(

    in cui X N-M rappresenta la v.a. marginale complementare a XM. In tal caso è possibile esprimere il vettore dei valori attesi e la matrice di covarianza in forma ripartita come segue :

  • 17

    Distribuzione Gaussiana N-dimensionale_______________________________________________________________

    =

    =

    −−

    MNMMN

    MNMM

    MN

    M

    xxx

    xxxx

    x

    xx

    KKKK

    K

    mm

    m

    ).47(

    ).47(

    b

    a

    Poiché X è gaussiana la v.a. XM

    [ ]

    =

    −MN

    MM x

    xIx 0 )48(

    è ancora gaussiana ,in virtù della proprietà 1’ con :

    { }

    ( )( ){ }MM

    M

    xT

    xT

    xMxM

    xM

    KOIIKmxmxE

    mxE

    =+=−−

    =

    ).49(

    ).49(

    b

    a

    c.v.d. Commento. Si noti che tale proprietà definisce una condizione necessaria per le v.a. marginali ma non una condizione sufficiente. Per convincersi di ciò si noti che la funzione caratteristica della v.a. marginali Xi si ottiene dalla Px(ξ) ponendo ξij=0 per j≠i e che quindi aggiungendo all’ esponente della funzione caratteristica data dalla ( ) un termine in 2

    iiξ ji

    2ξ si ottiene una distribuzione che non è normale N-dimensionale ma possiede distribuzioni marginali gaussiane. Un’ ulteriore proprietà delle v.a. gaussiane che può essere derivata facendo ricorso alla funzione caratteristica e che riguarda il calcolo del momento congiunto del quarto ordine è quella espressa dal seguente teorema per la cui dimostrazione si rimanda all’ appendice.

  • 18

    Distibuzione Gaussiana N-dimensionale________________________________________________________________ TEOREMA- Siano X1, X2, X3, X4 v.a. congiuntamente gaussiane con valori attesi mxi , i=1…4 e

    matrice di covarianza Kx con elementi Kxij=σxixj , i,j =1…4. Allora :

    ( ) ( )( )( )( ){ }3241423143214321 4321

    1,1,1,1xxxxxxxxxxxxxxxxxx mxmxmxmxE σσσσσσµ ++=−−−−= )50(

    Si noti che in tale teorema le v.a. non devono essere necessariamente tutte distinte e quindi come caso particolare della ( ) si ottiene che sotto lev stesse ipotesi :

    ( ) ( ){ } ( )22222221 212121 2 xxxxxxx mxmxE σσσ +=−− )51( Un utile corollario del precedente teorema è quello che riguarda il momento centrale del terzo ordine. Corollario – Il momento centrale congiunto di ordine 3 di 3 v. a. congiuntamente gaussiane è nullo. ( )( )( ){ } 0

    321 321=−−− xxxx mxmxmxE )52(

  • 19

    Distribuzione gaussiana N-dimensionale_______________________________________________________________ 3.2- FUNZIONI DI DENSITA’ DI PROBABILITA’ CONDIZIONATA Nel paragrafo precedente è stato dimostrato che date due variabili aleatorie X e Y congiuntamente gaussiane ripettivamente a m e n dimensioni, le loro distribuzioni marginali risultano gaussiane.Una ulteriore proprietà, estremamente utile nelle applicazioni, è che la v.a. X condizionata alla v.a. Y risulta ancora gaussiana. Tale proprietà può essere formalizzata come segue. PROPRIETA’- Data una v.a. gaussiana Z :

    =

    YX

    Z )50(

    Con valore atteso mz e matrice di covarianza Kz :

    =

    =

    yyx

    xyxz

    y

    xz

    KKKK

    K

    mm

    m

    ).51(

    ).51(

    b

    a

    La f.d.p. di X condizionata ad Y Px/y (x/y ) risulta guassiana con valore atteso m x/y e matrice di covarianza Kx/y dati da :

    ( )

    yxyxyxxyx

    yyxyxyx

    KKKKK

    myKKmm

    1/

    1/

    −=

    −+=

    ).52(

    ).52(

    b

    a

    Prova : Per dimostrare tale proprietà si osservi che in base alla definizione la f.d.p. Px/y (x/y ) può essere espressa come segue :

  • 20

    Distribuzione Gaussiana N-dimensionale_______________________________________________________________

    ( ) ( )( ) == yPyxP

    yxPy

    yx

    yx

    ,/

    ,

    / ( ) [ ]( ) [ ]

    ( ) ( ) ( ) ( )[ ]yyyzzTz myKmymzKmz

    yn

    zmn e

    K

    K

    −−−−−−

    +

    −−

    =11

    21

    2

    2

    det2

    det21

    π

    π )53(

    Si osservi che tale f.d.p. può anche essere espressa nella forma :

    ( )( ) [ ]

    ( ) ( )yxyxTyx mxKmx

    yx

    myx eK

    yxP /1//2

    1

    /2

    /det2

    1/

    −−− −

    )54(

    In cui m x/y e K x/y sono rispettivamente il valore atteso e la matrice di covarianza condizionate. Eguagliando le due espressioni e osservando che la matrice K 1−z può essere espressa come segue :

    ( ) ( )

    ( ) ( )

    −−−

    −−−= −−−−−

    −−−−−−

    11111

    111111

    xyxyxyyxxyxyxy

    xyxyxyxyxyxyxyxyxz

    KKKKKKKKKK

    KKKKKKKKKKKK )55(

    Si ha immediatamente che :

    ( )

    ( ) ( ) ( )yxyxyxyxyxxyxxyxyxyx

    yxyxyxyx

    myKKKKKKmKKKKmK

    KKKKK

    −−+=

    −=

    −−−−−−

    −−−

    11111/

    1/

    11/

    1

    ).56(

    ).56(

    b

    a

    Osservando che per il lemma di inversione matriciale si ha :

    ( ) ( ) 111111 −−−−−− −=− yxyyxyxyxxyxyxyxyx KKKKKKKKKKKK )57( Infine si ha :

  • 21

    Distribuzione gaussina N-dimensionale________________________________________________________________

    ( )yyxyxyx

    yxyxyxyx

    myKKmm

    KKKKK

    −+=

    −=

    1/

    1/

    ).58(

    ).58(

    b

    a

    c.v.d.

  • 22

    Distribuzione Gaussiana bidimensionale_______________________________________________________________

    - DISTRIBUZIONE GAUSSIANA BIDIMENSIONALE

    Per il suo utilizzo frequente è utile esplicitare le relazioni trovate in precedenza nel caso bidimensionale. Indicata quindi con Z≡(x,y ) una v.a. bidimensionale con v.a. marginali X e Y sia

    da cui segue che :

    =

    =

    =

    2

    2

    2

    2

    yyx

    yx

    yxy

    xyxz

    y

    xz

    K

    mm

    m

    σσρσρσσσ

    σσσσ

    )60(

    )59(

    Pertanto per il determinante della matrice di covarianza si ha : [ ] ( )222 1det ρσσ −= yxzK )61(

    { }

    { }

    ( ){ } xdi varianza: y di atteso valore:

    xdi atteso valore:

    22xxx

    yy

    xx

    mxE

    yEm

    xEm

    −=

    =

    =

    σ

    ( ){ }

    ( )( ){ }

    y e x tranecorrelazio di tecoefficien:

    y e x di covarianza :

    y di variazione:

    ,

    22

    yx

    xy

    yxyxxy

    yyy

    mymxE

    myE

    σσ

    σρ

    σ

    σ

    =

    −−=

    −=

  • 23

    Distribuzione gaussiana bidimensionale________________________________________________________________ E per la sua in versa risulta :

    −−

    −=−

    2

    2

    21

    1

    1

    11

    yxy

    yxxxK

    σσσρ

    σσρ

    σρ

    )62(

    Per cui la f.d.p. bidimensionale risulta del tipo :

    ( )( )

    ( ) ( )( ) ( )

    2

    2

    12

    1

    ,12

    ,2

    2

    2

    2

    2

    ρσπσ

    σσσ

    ρ

    σρ

    −=

    −+

    −−−−

    −−

    yx

    mymymxmx

    yx

    y

    y

    yx

    yx

    x

    x

    eyxP )63(

    Mentre per la funzione caratteristica si ha :

    ( ) ( ) ( )22221212221 22221, , ξσξξσρσξσπξξπξξ yyxxyx eeP mmjyx ++−+−= )64( Dall’ esame della f.d.p. congiunta si deduce che il luogo dei punti del piano per cui la f.d.p è costante, ad esmpio pari ad un valore c, è costituito dai punti del piano per i quali risulta costante l’esponente dell’ equazione (63), ovvero dai punti (x,y) che soddisfano l’ equazione :

    ( ) ( )( ) ( ) '

    2

    2

    2

    2 2C

    mymymxmx

    y

    y

    yx

    yx

    x

    x =−

    +−−

    −−σσσ

    ρ

    σ )65(

    Che rappresenta un ellisse con centro nel punto (mx, my ) e assi principali ruotati di un angolo α

  • 24

    Distribuzione gaussiana bidimensionale________________________________________________________________

    fig.ellissi di concentrazione Come riportato in fig. tali ellissi prendono anche il nome di ” ellissoidi di concentrazione”. E’ possibile dimostrare inoltre che le lunghezze dei semiassi principali sono inversamente

    proporzionali alla radice quadrata degli autovalori della matrice di covarianza 1−zK . Nel caso in cui le due v.a. x ey abbiano la stessa varianza 222 σσσ == yx l’ equazione si riduce a

    ( ) ( )( ) ( ) '22 2 Cmymymxmx yyxx =−+−−−− ρ ( ) 0' 〉C )66(

  • 25

    Distribuzione gaussiana bidimensionale________________________________________________________________ Pertanto salvo il caso di ρ=0 per cui le ellissi si riducono a cerchi con centro nel punto (mx, my), gli assi principali coincidono con le parallele alle due bisettrici del 1° e 3° e del 2° e 4° quadrante (vedi fig.) In tal caso è facile verificare che considerata la trasformazione

    ( )

    ( )yxy

    yxx

    +=

    −=

    21

    21

    1

    1

    ).67(

    ).67(

    b

    a

    A cui corrisponde la matrice di trasformazione

    −=

    1111

    21

    A )68(

    Si ha in effetti che la matrice di covarianza

    1zK di ),( 111 yxz ≡ diviene diagonale

    ( )

    ( )

    +−

    =

    −== 2

    2

    22

    22

    210021

    21

    1111

    1111

    21

    1 σρσρ

    σρσρσσT

    zz AAKK )69(

    E quindi le lunghezze dei semiassi principali sono proporzionali a ( )σρ−1 (2 o e 4 0 quadrante ) e ( )σρ+1 (1 0 e 3 0 quadrante ). Per le distribuzioni condizionate si ha che :

    ( )

    −=

    +=

    222/

    /

    1 ρσσσσρ

    xxy

    y

    xxyx mm

    ).70(

    ).70(

    b

    a

  • 26

    Distribuzione gaussiana bidimensionale________________________________________________________________

    ( )

    ( )

    −=

    −+=

    222/

    /

    1 ρσσσσ

    ρ

    yxy

    xx

    yyxy mxmm

    )'.70(

    )'.70(

    b

    a

    Tale risultato può essere interpretato come segue. Se la f.d.p. della v.a. x è del tipo riportato in Figura

    Allora la conoscenza che la v.a. y ha assunto la determinazione y riduce l’ incertezza sulla v.a. x in Quanto la f.d.p. condizionata di x rispetto a y è ancora gaussaina ma il suo valore atteso mx si modifica di una quantità proporzionale allo scostamento (y-my)

    tra l’attuale determinazione della v.a. y ed il suo valore atteso, secondo un fattore pari a y

    x

    σσ

    ρ

  • 27

    Distribuzione gaussiana bidimensionale________________________________________________________________ mentre la sua varianza si riduce a ( ) 221 xσρ− . Si noti che tale riduzione è tanto più forte quanto più |ρ| tende a 1. Infatti 1±=ρ implica una relazione lineare tra le variabili e quindi nota y la determinazione della v.a. x può essere calcolata immediatamente. Ciò si riflette nel fatto che per |ρ| =1 la varianza condizionata yxσ vale 0 e quindi la f.d.p. tende ad un impulso matematico centrato in mx/y.

    Tale riduzione invece non si manifesta nel caso ρ =0, ed inafatti in tal caso le due v.a. aleatorie,essendo gaussiane, oltre che incorrelate risultano anche statisticamente indipendenti e quindi l’ osservazione di una delle due non porta nessuna inforamazione sul comportamento dell’ altra. Si noti infine che la curva di regressione di un adelle due v.a. rispetto all’ altra è una retta la cui equazione è data dalla (70.a)