Teoria Fenomeni Aleatori - Bellini - Politecnico di Milano

download Teoria Fenomeni Aleatori - Bellini - Politecnico di Milano

of 116

description

Corso di Teoria dei fenomeni aleatori tenuto dal professor Bellini per il corso di studio di Ingegneria delle telecomunicazioni presso il Politecnico di Milano. Tutto il materiale qui presentato, su probabilità, variabili casuali, processi casuali e stima si trova in testi classici.

Transcript of Teoria Fenomeni Aleatori - Bellini - Politecnico di Milano

TEORIADEIFENOMENIALEATORISandroBelliniPolitecnicodi MilanoPrefazioneQueste brevi note sono state scritte per gli studenti del corso di Teoria dei fenomeni aleatorida me tenuto per il corso di studio di Ingegneria delle telecomunicazioni presso il Politecnicodi Milano. Tuttoil materiale qui presentato, suprobabilit`a, variabili casuali, processicasualiestimasitrovaintesticlassici. Loscopoprincipale `edifornireunasintesi,senzachesidebbaestrarrelinformazionedapi` ufontie,inevitabilmente,connotazionidiverse.Il primocapitolo`ededicatoallaprobabilit`aedallevariabili casuali. Inmolti testi vienedapprimadedicatolungotempoal casodiscreto(leprobabilit`a). Solosuccessivamentesiintroducono le variabili casuali discrete. Inne con molta cautela si propongono le variabilicasuali continue, le funzioni di distribuzione e le (terribili) densit`a di probabilit`a,e ancorasi rimanda (come fosse argomento assai dicile) il caso di due o pi` u variabili casuali. A mepareinvececheconvengamostrarequantoprimaqualedebbaessereilmododiassegnarele probabilit`anel casodelle variabili casuali continue, che hagrande importanzanelleapplicazioni ingegneristiche, sfatando subito quellaura di dicolt`a del tutto ingiusticata.Sesi `eassorbitoil concettodi integralenonvi `edavveronessunproblemasostanziale.Gli unici inciampi possibili sonoformali, ederivanodal noncomprenderepienamentelanotazione: occorre distinguere tra il risultato numerico dellesperimento e largomento dellafunzione densit`a di probabilit`a. Su questo `e davvero opportuno spendere attenzione, perchepoiilpercorsodiventafacile.Lateoriadellaprobabilit`aforniscestrumenti moltogenerali peril calcolo. Imparareadusarli conagilit`a`ecertamenteunarte, cherichiedepredisposizione, fantasia, interesse,curiosit`a, amore per i problemi matematici. Probabilmente pochi sono destinati a diventareartisti, matutti possonoessere dei buoni artigiani, e questo`e quelloche contaper ilprogressodellumanit`a.Il secondo capitolo vuole fornire i risultati fondamentali che rendono la teoria delle probabi-lit`a un mezzo per fare previsioni adabili sui risultati di esperimenti casuali.`E necessariochiarirecheil risultatodel singoloesperimentonon`eprevedibile etuttavianonsolovisonograndezzemedieche`epossibileprevederemasi pu`oanchestimarelaccuratezzaditali previsioni. Conci`osi speradi farepuliziadi (incredibili)falsecredenzesullaleggedeigrandinumeri,ancoradiusenonsolonellapopolazionemenoacculturata,chefannorabbrividirechiunquecapiscaqualcosadiprobabilit`a.Il terzocapitolo, pi` ubreve, introduce i processi casuali, che sonocollezioni di innitevariabili casuali. Per la loro trattazione `e conveniente introdurre grandezze sintetiche comelafunzionediautocorrelazione,mostrandonequalcheusotipico.Nel quartocapitolosi vuolefornireunatrattazioneintroduttivaai problemi di stimadeiparametri di una distribuzione e di stima di variabili casuali non osservate sulla base di unaopi` uvariabili casuali osservate. Si presentanosoloi fondamenti di alcuni trai numerosiproblemidiquestanatura.Inunaprimaletturapu`oessereconvenienteomettereleparti del testoincaratterepi` upiccolo, senza che per questo si perda la continuit`a del discorso. Si potr`a tornare su questiiiapprofondimentiinunsecondotempo.La collocazione attuale dellinsegnamento nel curriculum di Ingegneria delle telecomunica-zioni`etalechenonsi possonopresumereconoscenzeapprofonditedi analisi matematicane (come sarebbe utile) di teoria dei segnali. Se ad esempio fossero gi`a acquisiti strumenticomelafunzionedelta,latrasformatadiFourierelanalisideisistemilinearineldominiodeltempoedellefrequenzenetrarrebberogiovamentoearricchimentoargomenticomelefunzioni di variabili casuali, le funzioni caratteristiche e generatrici dei momenti e i proces-si casuali. Nel corsodellelezioni si dovr`avalutaresesiapossibilefornirequalcherapidoapprofondimentooppuresesiapreferibilerinunciareadalcunidiquestiargomenti.Negli esercizi si `e cercato di privilegiare luso delle metodologie del calcolo delle probabilit`amantenendobassalacomplessit`amatematica. Comesottolineatoancheneltesto,visonoargomentichepocosiprestanoallacostruzionedisempliciesercizirisolvibiliamano. Adesempiodopoaverutilizzatoi casi pi` usemplici perillustrarelateoriadellastimarestapocoonulladaproporreperlesercitazioneindividuale1.Alcuni esercizi sonomessi inevidenzaper laloromaggiorecomplessit`a. Ingenerenoncomportanodicolt`amatematichedi livellosuperiore, masonoproblemi cherichiedonomaggioreriessione,attenzioneofantasia.RingrazioMarcoFerrari eAlessandroTomasoni, collaboratori nelleattivit`adi ricercaedidattica, peri commenti sututtoil testo. Imprecisioni ederrori sonoinevitabili, esolomiane`elaresponsabilit`a. Sperocheatutti i lettori risulti facileintuirecosaavrei vo-lutoscrivere,eringrazioinanticipopersegnalazionidierroriopuntioscuri,chesarannoconsideratiinsuccessiviaggiornamentidiquestotesto.CometuttiimieilavoridedicoanchequestoaIlia,miamoglie.SandroBellini1lasituazionesarebbebendiversasesipotesseevolessefarcontosullacapacit`adiutilizzarestrumentidianalisinumerica,comeMatlab;forseinfuturo...Indice1 Probabilit`aevariabili casuali 11.1 Teoriadellaprobabilit`a. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Denizioni,terminologia,teoremielementari . . . . . . . . . . . . . . . . . 51.3 Spaziconuninnit`anumerabiledirisultati . . . . . . . . . . . . . . . . . 81.4 Spaziconuninnit`anonnumerabiledirisultati . . . . . . . . . . . . . . . 91.4.1 Osservazionisullanotazione . . . . . . . . . . . . . . . . . . . . . . 121.5 Ancorasullevariabilicasuali . . . . . . . . . . . . . . . . . . . . . . . . . . 131.6 Probabilit`acondizionate,indipendenzastatistica. . . . . . . . . . . . . . . 151.6.1 Probabilit`acondizionate . . . . . . . . . . . . . . . . . . . . . . . . 161.6.2 Indipendenzastatistica. . . . . . . . . . . . . . . . . . . . . . . . . 171.7 Esempidicalcolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.8 RegoladiBayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271.8.1 Unesempiodidecisionenelletelecomunicazioni . . . . . . . . . . . 291.9 Funzionidivariabilicasuali . . . . . . . . . . . . . . . . . . . . . . . . . . 301.10 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 Teoremi limite 412.1 Proveripetute. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.2 Misuradiunaprobabilit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.3 DistribuzionediPoisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502.3.1 EventidiPoisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.3.2 IntervallotraeventidiPoisson . . . . . . . . . . . . . . . . . . . . 522.4 Valorimedieleggedeigrandinumeri . . . . . . . . . . . . . . . . . . . . . 532.4.1 Valoremediodiunafunzionedivariabilicasuali . . . . . . . . . . . 542.4.2 Propriet`adelvaloremedio . . . . . . . . . . . . . . . . . . . . . . . 55iiiiv INDICE2.4.3 Momentidivariabilicasuali . . . . . . . . . . . . . . . . . . . . . . 562.4.4 Funzionecaratteristicaefunzionegeneratricedeimomenti . . . . . 572.4.5 Varianzadellasommadivariabilicasualiincorrelate. . . . . . . . . 592.5 Variabilicasualidimaggiorinteresse . . . . . . . . . . . . . . . . . . . . . 602.5.1 Distribuzioneuniforme . . . . . . . . . . . . . . . . . . . . . . . . . 602.5.2 Distribuzioneesponenziale . . . . . . . . . . . . . . . . . . . . . . . 612.5.3 DistribuzioneLaplaciana. . . . . . . . . . . . . . . . . . . . . . . . 612.5.4 Distribuzionegaussiana . . . . . . . . . . . . . . . . . . . . . . . . . 622.5.5 DistribuzionediRayleigh. . . . . . . . . . . . . . . . . . . . . . . . 632.5.6 DistribuzionediBernoulli . . . . . . . . . . . . . . . . . . . . . . . 632.5.7 Distribuzionebinomiale . . . . . . . . . . . . . . . . . . . . . . . . 642.5.8 Distribuzionegeometrica . . . . . . . . . . . . . . . . . . . . . . . . 642.6 DiseguaglianzadiChebychev . . . . . . . . . . . . . . . . . . . . . . . . . . 652.7 Leggedeboledeigrandinumeri . . . . . . . . . . . . . . . . . . . . . . . . 652.8 Leggefortedeigrandinumeri . . . . . . . . . . . . . . . . . . . . . . . . . 662.9 Teoremadellimitecentrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 672.10 Variabilicasualicongiuntamentegaussiane . . . . . . . . . . . . . . . . . . 692.11 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 713 Processi casuali 793.1 Processicasualidiscretiecontinui . . . . . . . . . . . . . . . . . . . . . . . 793.2 Descrizionestatisticadiunprocessocasuale . . . . . . . . . . . . . . . . . 803.2.1 Osservazionisullanotazione . . . . . . . . . . . . . . . . . . . . . . 803.3 Momentidiunprocessocasuale . . . . . . . . . . . . . . . . . . . . . . . . 813.4 Processicasualistazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . 833.4.1 Valoremedioeautocorrelazionediprocessistazionari . . . . . . . . 833.4.2 Ergodicit`ainsensolato . . . . . . . . . . . . . . . . . . . . . . . . . 843.4.3 Ergodicit`ainsensostretto . . . . . . . . . . . . . . . . . . . . . . . 853.4.4 Esempidiprocessicasuali . . . . . . . . . . . . . . . . . . . . . . . 853.5 Processicasualigaussiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . 873.6 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 894 Introduzioneallastima 914.1 Stimadiparametridiunadistribuzione. . . . . . . . . . . . . . . . . . . . 91INDICE v4.1.1 Mediaevarianzacampionaria . . . . . . . . . . . . . . . . . . . . . 914.1.2 Stimadiparametriamassimaverosimiglianza . . . . . . . . . . . . 934.2 Stimadivariabilicasuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 974.2.1 Stimaaminimoerrorequadraticomedio . . . . . . . . . . . . . . . 974.2.2 Stimalineareaminimoerrorequadraticomedio . . . . . . . . . . . 98ARisposteadalcuni degli esercizi 105vi INDICECapitolo1Probabilit`aevariabili casualiNon `e agevole spiegare brevemente cosa `e la probabilit`a, quali risultati fornisce la teoria,esoprattuttocomeequandoquestirisultatipossonoessereutilizzatiinpratica. Tuttaviail tentativo merita di essere fatto, perche se si riesce ad intuire subito quali grandezze dellapratica corrispondono alle entit`a della teoria, lo svolgersi di questultima risulta certamentepi` ucomprensibile.Periniziareacomprendereilruolodellateoriadellaprobabilit`apu`oessereutilericordaredaquali motivazioni pratichesianata, qualchesecolofa. Iprimi di cui siadocumentatolinteresse per questi problemi sono stati giocatori dazzardo, seguiti dagli assicuratori sullavita. Fortunatamentelaprobabilit`ahaattiratoanchelattenzionedi alcuni dei migliorimatematiciehapotutosvilupparsitrovandopoinumerosissimeapplicazioni.Il professionistadel giocodazzardohaesperienzasucienteperriconoscerenei risultatidi esperimenti casuali, come i lanci di monete odi dadi e lestrazione di carte daunmazzo, unacertaregolarit`achedivieneevidenteseil numerodi prove`eparticolarmenteelevato. Il risultatodel lanciodi unamoneta, chesupponiamopersemplicit`abilanciata(ocomesiusadire,onesta)nonhanulladiprevedibile. Non `eprevedibileinalcunmodoneppurelasuccessionedirisultatiinunasequenzadiNlanci,qualunquesiaN. Tuttaviasenonsi `einteressati allesattasequenzadei risultati masoloal numerocomplessivoditeste, indipendentementedal loroordinamento, lesperienzamostracheseN`egrandelafrequenzadelleteste `eintornoad1/2.Nessunodeiprimisperimentatorihamaipensatocheunamonetapotesseaverememoria,percompensareesitinonbenbilanciatideiprimilanciconisuccessivi. Perconvincersenebastapensarechesi potrebberolanciarecontemporaneamenteNmonete, echesarebbemolto sorprendente che le monete si mettessero daccordo in qualche modo su come dividersifra teste e croci mentre rimbalzano e rotolano. Non `e utile per la comprensione del fenomenoassumerechecisiaunaforzachetendearistabilireemantenerelequilibriodeirisultati.`Emoltomegliocercareunaspiegazionepi` usemplice, elateorianonmancadi fornirla.Facendoesplicitamentelipotesi chegli esiti dei lanci sianoindipendenti si dimostrachelafrequenzadelletestetendeadunlimiteperNtendenteallinnito, ed`eanzipossibile12 CAPITOLO1. PROBABILIT`AEVARIABILICASUALIottenereutiliprevisionisuquantopossadiscostarsidatalelimitepervalorinitidiN.Il giocatore che faccia del gioco una professione ha bisogno di conoscere queste regolarit`a, inmodo da prevedere il suo guadagno medio e da essere pressoche sicuro che rare sequenze dirisultati molto sfavorevoli non lo portino alla rovina. Invece il cliente giocatore occasionalenonpu`ofarepraticamentenessunaprevisione. Pu`ovincereoperdere, eil suopiaceresembranascerequasisolodalbrividodelrischio.Ogni tanto un giocatore ottiene una vincita elevata. Il banco paga senza alcuna emozione:sapevainanticipocheci`opotevaaccadere(esapevaancheconqualeprobabilit`a);inoltrelanotiziadiunabuonavincitapu`oattirarealtriclienti,aumentandoilguadagnomedio.Unprofessionistadevesaperproporreungiocoquasi onesto, incui lavincitamediadelbanco sia una piccola frazione delle quote giocate. In tal modo non appare subito evidentecheil gioco`esfavorevole, elapropensionedel clienteoccasionaleacercareil colpodifortunane `emoltoraorzata. Tuttiiluoghiseriincuisigiocaseguonoquestoprincipio.Un piccolo professionista, meno protetto da un enorme capitale che ne impedisce la rovina,pu`o trovare utile inventare giochi in cui a prima vista le probabilit`a sono addirittura a suosfavore,sevalutateinmodofrettoloso. Nonmancamailoscioccochesiarettaagiocareperapprottaredelbuoncuorediunsimilebenefattore(epoiimprecaallasfortuna).Anche chi propone assicurazioni sulla vita deve saper calcolare le probabilit`a, per ottenereunguadagnostabileesicuro. Lemotivazioni di chi contraeunassicurazionesonobendiverse da quelle di un giocatore: normalmente non ci si assicura sulla vita per ottenere unguadagnomaperproteggerelapropriafamigliadadisgraziechelasconvolgerebbero. Sipu`o quindi essere disposti a lasciare un margine non piccoloallassicuratore. In un mondoidealelaconcorrenzatragli assicuratori manterrebbecomunquei margini di guadagnoridotti,ma `epossibilecheaccorditraquestimodichinoitassi.Un caso simile `e quello delle lotterie con premi molto elevati. La disponibilit`a a partecipare`ecos`ampiachelalotteriapu`opermettersigrandimarginidiguadagno.1.1 Teoriadellaprobabilit`aLateoriadelleprobabilit`a`e, inlineadi principioesenonsi `etroppopignoli, semplice.Ridotta allosso, sia pure inmodo unpo paradossale, consiste inquesto: deniti unesperimentoedisuoipossibilirisultaticasualisiassegnaunamisura(laprobabilit`a)nonnegativa ad ognievento(un risultato o lunione di pi` u risultati) in modo che la probabilit`adellaunionedi eventi disgiunti (cio`echenoncontengonorisultati comuni)coincidaconlasommadellerelativeprobabilit`a. Inoltresirichiedechelaprobabilit`adelleventocerto(unione di tutti i possibili risultati) sia unitaria. Questi vincoli corrispondono al desiderio,quando uno stesso esperimento casuale `e ripetuto molte volte, di confondere la probabilit`adi uneventoAconlasuafrequenzarelativa, cio`econil rapportotrail numerodi volteincui si `e avutounrisultatocontenutonelleventoA(pi` ubrevemente: si `e vericatoleventoA)edil numerocomplessivodi prove. BenchequestorapportosiaovviamenteS.Bellini 1.1. Teoriadellaprobabilit`a 3casuale, potendocambiaresesi ripeteil bloccodi prove, lesperienzamostraunacertaregolarit`adellafrequenzarelativa,tantomigliorequantopi` ugrande `eilnumerodiprove.Assegnandoallaprobabilit`alestessepropriet`adellafrequenzarelativasi halasperanza,chesar`asoddisfatta, di dimostrareteoremi come: al tendereallinnitodel numerodelleprovelafrequenzarelativadiuneventotendeallaprobabilit`adellostesso.Dunque i dati del problema, ad esempio le probabilit`a dei risultati elementari se da questeogni altra probabilit`a `e calcolabile, sono largamente arbitrari per la teoria: dovranno esseresceltiinmododacorrispondereallefrequenzerelativechesiattendononellapraticapericorrispondenti eventi. Il risultato del calcolo, ad esempio la probabilit`a di un evento unionedimoltirisultati,sar`aunaprevisionedellafrequenzarelativadelleventostesso.Riguardoal calcolo, inteoria`edel tuttobanale: per averelaprobabilit`adi uneventobasta scomporlo in unione di eventi disgiunti di cui siano assegnate o facilmente calcolabilile probabilit`a, e sommarle. Chi sasommare, cio`e utilizzare le propriet`acommutativaedassociativadellasomma, saanchecalcolareleprobabilit`a. Inpratica, il numerodeitermini dasommarepu`oesseremoltogrande, oaddiritturainnito. Nei problemi nonbanalioccorreunacertaabilit`aedesperienzaperraccoglierliinmodoconveniente.Un esempio che sembra dicile e in cui i possibili risultati elementari sono molto numerosi,e tali che solo raccogliendoli in modo conveniente si ottiene il risultato senza troppa fatica,`eil seguente. Si vuolecalcolarelaprobabilit`adi vittoriainungiocoincui unestraneoprepara100biglietti con100numeridiversi, positivi onegativi edeltuttosconosciuti; ilgiocatoreestraeunbiglietto,leggeilnumero,edhaduepossibilit`a: dichiararechequesto`eilpi` ugrandefraicento(evincese `evero),oppureaermarechenonlo `eedestrarreunaltrobiglietto. Inmancanzadiinformazionisuipossibilinumerinonsipu`ofardimegliochelasciarnepassareN, conNpressato, tenendoamenteil pi` ugrandefraquesti, eapartiredalsuccessivoscegliereilprimochelosupera,sec`e.Sipu`operdereinduemodi: ilpi` ugrandefratuttiinumeri `eneiprimiN;oppure `eneglialtri100 N,ma `eprecedutodaalmenounaltromaggioredeiprimiN.Occorre scegliere anzituttoi risultati elementari acui assegnare le probabilit`a, che inquestoproblema`elapartepi` udicile. Ancheseil giocosolitamentesi arrestaprimadel centesimo, nullavietaal giocatoredi ordinaretutti i biglietti, senzaguardarli, primadiiniziare. Sipu`oconsiderarerisultatoelementarequestoordinamentocasuale. Leventocerto`ecos` scompostoin100!=9.33 10157risultati elementari disgiunti, quantesonolepermutazioni dei cento biglietti. Ora ci prendiamo la responsabilit`a di assumere che questirisultati siano ugualmente probabili,perche per simmetria non vediamo ragioni perche ci`onon sia vero. Si noti che a questo riguardo la teoria non ha nulla da dire: ogni assegnazionediprobabilit`aconsommaunitaria `eaccettabile.Il calcolo`epoi abbastanzasemplice: bastaindividuarei risultati elementari cheportanoallavittoriaesommarneleprobabilit`a. Poichei risultati elementari sonoequiprobabili,si trattainpraticadi contare quelli favorevoli. Esaminiamoseparatamente i 100casidisgiunti {il pi` ugrande dei numeri si trovanelli-esimaposizione}(i =1, 2, . . . , 100),ciascunodei quali`ecompostoda99! risultati elementari. Sei`ecompresotra1edNsi4 CAPITOLO1. PROBABILIT`AEVARIABILICASUALIperde. Sei = N+ 1sivincecomunque,eci`ofornisce99!casifavorevoli. Sei = N+ 2sivinceseesoloseil pi` ugrandetrai primi N+ 1numeri`etrai primi N: intotalesono99 98 97 . . . (N +2) N N!casifavorevoli,comeillettorepu`opazientemente vericarepensandoinquanti modi favorevoli si possonodisporrenellordinei biglietti inposizione100, 99, . . . , N+ 3poiilpi` ugrandetrairimanentiinunadelleprimeNposizioni, inneinordinequalsiasiirestantiN. Sinotiche99 98 97 . . . (N + 2) N N!non `ealtroche99!NN+1 .Ripetendoinmodoanalogoil contoperi=N+ 3, . . . , 100esommandosi ottieneinnechelaprobabilit`adivittoria `e99! + 99!NN+1+ 99!NN+2+ . . . + 99!N99100!=N10099

k=N1k(1.1)Che cosainsegnaquestocalcolo? Anzituttoche nonci si deve lasciare intimorire dalgrandenumerodirisultatielementari,purchesisappiaorganizzarliinmodoappropriato.`Eanche importante sapersi destreggiare bene conil calcolocombinatorio, come alcunitesti di probabilit`alascianocredere? Nonquantogeneralmentesi crede: pocopi` uavantisar`apossibile mostrare che si pu`ocalcolare lastessaprobabilit` adi vittoriamoltopi` urapidamente,e senza sapere nulla di calcolocombinatorio. Inoltre saper contare i risultatifavorevoli `eutilesoloquandoquestisonoequiprobabili.Icasipi` ugenerali,esolitamentepi` uinteressanti,sonoquelliincuinonsiriesceadindivi-duarerisultatielementariequiprobabili. Adesempiosesilanciaunamonetatruccata,ched`atestapi` uspessochecroce, i risultati possibili sonoancora {testa}e {croce}maunateoria che imponga lequiprobabilit`a solo perche i risultati sono due `e inutilizzabile. Comealtrosempliceesempiosi consideri laregistrazioneallanagrafedi unnuovonato. Secisi limitaaconsiderarneil sessonon`eil casodi aermarecheci sonoduecasi possibili equindi equiprobabili. Lanaturapotrebbenonesseredaccordo, edinfatti`enotodasecolichelenascitedimaschisonounpopi` ufrequenti1.Tornandoal giocodei numeri il lettoreincuriositochevolesseavererapidamenteunideadiquale `eilvalorepi` uconvenientediNpu`oapprossimarela(1.1)conN100_100Ndxx=N100 log 100N(1.2)Trattandopoi Ncomeunavariabilerealeanzicheinterasi ottienecheil massimosi haperN=100/e=36.8, echelaprobabilit`adi vittoria`e1/e=0.368, sorprendentementeelevata. DovendoNessereinterosar`aN=37,eperquestovalorela(1.1)forniscecomerisultato0.371.Chesignicatosi potr`adareaquestonumero? Seil giocatoreripeteil giocomoltevoltevincer`api` uomenonel 37%dei casi. Maquantevolteoccorreripetereil giocoperchela1nonci si lasci ingannaredal fattochenellapopolazioneviventeprevaleil sessofemminile: lamaggiorduratamediadellavitacompensailminornumerodellenasciteS.Bellini 1.2. Denizioni,terminologia,teoremielementari 5previsione del 37% di successi sia adabile, e che uttuazioni potr`a avere la frequenza dellevittorie?Aquestedomandesipotr`adarerispostapi` uavanti.1.2 Denizioni, terminologia, teoremi elementari`E ora opportuno introdurre alcune denizioni, la terminologia di uso pi` u comune, gli assiomifondamentalidellaprobabilit`aeiprimielementariteoremi.Si indicaconprova, oesperimento, lasingolaesecuzionedellesperimentocasuale. Sinoti chelaprovapu`oconsistereadesempioinunsingololanciodi moneta, incui siconsideranopossibili i risultati {testa}e {croce}, mapu`oancheconsisterenel lanciosuccessivo di dieci monete in cui sono considerati risultati le 210sequenze di teste e croci.`Equindi indispensabileprecisarequalesialesperimentoacui si fariferimentoequalisianoisuoirisultati,dettiancherisultatielementari.Quandosieseguelaprovasiottieneunrisultatoelementare.Sonodaguardareconsospetto, anzi di normadanonaccettare, descrizioni dellaprovacome sceltoacasounpuntoinuncerchio. . . : cosavuol dire? c`e ununicomodocasualediscegliereunpuntoinuncerchio?LinsiemeSdituttiipossibilirisultatielementari `edettospaziodeglieventi.Unevento`eunsottoinsiemedellospaziodegli eventi, cio`eunaqualunquecollezionedirisultati elementari. In particolare un evento pu`o contenere un solo risultato elementare.Intalcasosilosichiamaancheeventosempliceoeventoelementare.SidicecheleventoAsi`evericatoseilrisultatodellaprova `econtenutoinA.Ad esempio nel lancio di un dado, in cui i risultati siano le facce numerate da 1 a 6, leventoA = {1, 3, 5}sivericaseilrisultato `e1,3o5,ovveroseilrisultato `eunnumerodispari.Per un armonioso sviluppo della teoria, che `e basata sulla teoria degli insiemi, occorre con-siderareancheleventoimpossibile ,cio`elinsiemevuotochenoncontienealcunrisultatoequindi nonsi vericamai eleventocertoospaziodegli eventi S, checontienetutti irisultatiequindisivericasempre.SeAeBsonoeventi anchelunionedi AeBelintersezionedi AeBsonoeventi.Unione e intersezione sono indicati rispettivamente con ABe AB, oppure con A+BeAB. LunionedeglieventiAeBsivericaseilrisultatoappartieneadAoaBoadentrambi. LintersezionesivericaseilrisultatoappartienesiaadAsiaaB.Ancheil complementodi A, indicatosolitamenteconA`eunevento, chesi vericaseesolosenonsivericaA.Si diconodisgiunti, omutuamenteesclusivi, eventi che hanno intersezione nulla, cio`e chenonpossonovericarsientrambinellastessaprova.Esempio1.2.1. Nel lancio di una moneta siano {testa} e {croce}, o per brevit`a {t} e {c}6 CAPITOLO1. PROBABILIT`AEVARIABILICASUALIA B ABSFigura1.1: UnionedeglieventiAeBscompostaintreeventidisgiuntii risultati. Linsiemedi tutti i possibili eventi`emoltosemplice: `ecostituitodaS={t,c},, {t}e {c}.Gli assiomi della probabilit`a, gi`a descritti in precedenza a parole, corrispondono ad evidentipropriet`adellafrequenzarelativa,esonomoltosemplici:assioma1: adognieventoA `eassegnataunaprobabilit`aP(A),nonnegativaassioma2: laprobabilit`adelleventocertoSvaleP(S) = 1;assioma3: selintersezioneAB= sihaP(A + B) = P(A) + P(B)`Eopportunaunaosservazione sullanotazione. Nel lanciodi unamonetaper indicarecheil risultatotestahaprobabilit`a0.5si pu`odapprimadenireleventoA={t}(dovet`eabbreviazionedi testa)epoi porreP(A)=0.5. PoicheA={t}`eragionevolescrivere, emolti loaccettano, P({t})=0.5, benchequestosiaesteticamentepocogradevoleacausadelle doppie parentesi. Per evitare doppie parentesi c`e chi scrive P{t}=0.5, per`oconil risultatocheunaprobabilit`a`eindicataavolteconparentesi tonde, comeinP(A), avoltecongraecomeinP{t}. Gli ingegneri scrivonotranquillamenteP(t)=0.5. Questanotazione `e disapprovata dai matematici, perche confonde il risultato t con linsieme A={t}checontienequel risultato. Malingegnerepensachelimportante`echelanotazionesiasemplice e non ambigua, e che P(t) non pu`o avere altro signicato che probabilit`a di testa.Peravereunaassegnazionedelleprobabilit`adegli eventi congruente, cio`erispettosadeitreassiomi, non`estrettamenteindispensabileassegnareleprobabilit`aatutti i risultatielementari. Adesempiounesperimentoincui siaprevistoil lanciodi undadopotrebbeproseguireinmodi diversi asecondacheil risultatosia6oppurediverso. Possiamocon-siderarerisultati elementari lefacceda1a6maci `esucienteassegnareleprobabilit`asolo agli eventi A={6}, B={1,2,3,4,5}, Se , rinunciando a suddividere P(B) tra i cinquerisultaticontenutiinB: questipotrebberoanchenonessereequiprobabili,maanoiinte-ressa solo la somma delle loro probabilit`a. Ovviamente otteniamo lo stesso scopo, in modopi` usemplice,considerandorisultatielementarisoloAeB.S.Bellini 1.2. Denizioni,terminologia,teoremielementari 7Iprimi teoremi dellateoriadelleprobabilit`asonosemplici applicazioni dellateoriadegliinsiemi,cheognilettorepu`ofacilmentevericare:ognieventoAhaprobabilit`aP(A) 1(bastaosservarecheA + A = SecheAeAsonodisgiunti)leventovuoto haprobabilit`anulla(comesopra,conA = )la probabilit`a dellunione di due eventi A e B`e data da P(A+B) = P(A) +P(B) P(AB) (basta scrivere A+Bcome somma di tre eventi disgiunti: AB+AB+AB; lag. 1.1, in cui si devono immaginare le regioni disegnate come contenitori di risultatielementari,chiariscechenonsidevesommareduevolte2P(AB))comesemplicecorollario, laprobabilit`adellunionedi dueeventi AeB`eminoreougualeallasommadelleprobabilit`aP(A) + P(B)(ed`eugualesolosegli eventisono disgiunti);si estende facilmente il risultato allunione di un numero qualsiasi dieventi;naturalmentepu`oaccaderechelasommadelleprobabilit`asiamaggioredi1,echequindi il risultatosiainutile: solitamentelosi usapereventi conprobabilit`amoltopiccola3Volendomantenereconsistentelanotazionesidovrebbeindicarelaprobabilit`adellinter-sezioneAB(oA B)conP(AB)oppureP(A B). Tuttavia `emoltopi` udiusa,ecomesivedr`api` uavantianchepi` ucomoda,lanotazioneP(A, B).Laprobabilit`achesiverichinosiaAsiaB(tale`eilsignicatodellintersezione)vienedettaprobabilit`acongiuntadegli eventi AeB. Ovviamentelintersezionedi BconAcoincideconquelladiAeB,equindiP(A, B) = P(B, A).Analogamentemoltospessosi indicalaprobabilit`adellunioneconP(AoB), esi legge:probabilit`adiAoB. DunqueP(AoB) = P(A) + P(B) P(A, B) (1.3)OvviamenteP(AoB) =P(BoA). Applicandoduevolteil teoremaprecedentesi haanchelaformula,diusomenofrequente,P(AoBoC) = P(A)+P(B)+P(C)P(A, B)P(A, C)P(B, C)+P(A, B, C) (1.4)che `eulteriormentegeneralizzabile.`EanchefacilevericarecheseA BsihaP(A) P(B).Inne, se i risultati elementari sono n in totale e sono tra loro equiprobabili, la probabilit`adiuneventoAcompostodanAdiquesti `enA/n.2perrendersi immediatamentecontocheingeneralenonpu` osempreessereP(A + B)=P(A) + P(B)bastapensarechelasommapotrebbedarerisultatomaggiorediuno3adesempioseP(A) =P(B) =P(C) =0.5si ottieneP(A + B+ C) 1.5, benpocoutile; maseP(A) = P(B) = P(C) = 103siottieneP(A+B +C) 3 103,chepotrebbeesserediqualcheutilit`a8 CAPITOLO1. PROBABILIT`AEVARIABILICASUALIQuestultimapropriet`a`e stataalungoconsideratadenizione di probabilit`a4, mapoiabbandonatapertregraviinconvenienti:`eunadenizionedi probabilit`abasatasullanozionedi equiprobabilit`a, cio`e`eunadenizionecircolare;sonofacilmentecostruibiliproblemiincuisolutoridiversipossonoritenereequipro-babi1iinsiemidiversidieventi,noncompatibilifraloro;e,comerisultatodiquestediversescelte,lerispostealproblemasonodiverse;lateoriacos` costruitanonsacosadire di fronte aproblemi anche semplici checoinvolganoadesempiolancidiunamonetatruccata,incuitestaecrocenonsianoequiprobabili.Unaltradenizionedi probabilit`atentatanel passato`equellafrequentista, chevolendosottolinearelacorrispondenzatraprobabilit`aefrequenzarelativadeniscelaprobabilit`adiuneventocomeP(A) =limNNAN(1.5)doveN`eil numerocomplessivodi proveeNA`eil numerodi proveincui si`evericatoleventoA. Taledenizione`echiaramentearbitraria,perch`enullagarantiscecheillimiteesista.`Eevidentementepreferibilechelinterpretazionefrequentistadellaprobabilit`asiafruttodiunteoremaanzichediunadenizione.Primadi procedere osserviamoche nonc`e dierenzadi principiotraesperimenti condadi cheabbianofaccenumerateoppurecolorate. Inentrambi i casi leprobabilit`adeisei risultati consentonodi calcolarequelledi tutti gli insiemi di risultati. Tuttaviaseilrisultato `e esprimibile con un numero si possono fare operazioni aritmetiche sui risultati dipi` ulanci: sommadei risultati, mediadei risultati, ecc. (mentrenonsi possonosommareomediarecolori). Seil risultato`enumericosi usadirechelesperimentoproduceunavariabilecasuale(inquestocasodiscreta,potendoaveresoloseivaloridistinti).1.3 Spazi conuninnit`anumerabiledi risultatiPoiche `e necessario considerare anche spazi degli eventi con inniti risultati, occorre esten-dere la validit`a dellassioma 3 allunione di una innit`a numerabile di eventi. Naturalmentele probabilit`a dovranno essere assegnate in modo che la somma delle probabilit`a non superimailunit`a.Si consideri adesempiounesperimentocasualeincui si lancianoduedadi, proseguendonoaquandoperlaprimavoltasiottieneundoppiosei. Ilrisultatoacuisi `einteressati4oggi vienechiamatabenevolmentedenizioneclassicadi probabilit` a, inonoreai grandi matematici delpassatochenehannofattousoS.Bellini 1.4. Spaziconuninnit`anonnumerabiledirisultati 9`e il numero dei lanci. Non `e invece di alcun interesse la sequenza completa dei risultati deilanci.Nonsi vuole qui tentare di calcolare laprobabilit`adegli eventi Ak={si ottiene per laprimavoltaundoppiosei al k-esimolancio}, di cui ci si occuper`api` uavanti. Si vuolesolosottolinearechek`euninteropositivoqualsiasi,echequindisonoinnumeroinnitogli eventi disgiunti Akche si suddividonolaprobabilit`aunitariadelleventocerto. Leprobabilit`a,qualunqueessesiano,dovrannodunquesoddisfareilvincolo

k=1P(Ak) = 1 (1.6)eci`orichiedecheP(Ak)tendaazeroperktendenteallinnitoinmodosucientementerapidodafarconvergerelaserie.Osserviamo che anche in questo caso considerando come risultato dellesperimento linteroksiottieneunavariabilecasuale(discreta,machepu`oavereinnitivalori).1.4 Spazi conuninnit`anonnumerabiledi risultatiGlispaziincuiirisultatisonoequiprobabilihannounasemplicegeneralizzazionealcasodi inniti risultati,quando il risultato dellesperimento `e un numero reale (che verr`a dettovariabilecasuale, oanchevariabilealeatoriaovariabilestocastica), oppureunaN-pladinumerireali,rappresentabileconunpuntonellospazioadNdimensioni(edintalcasosiparler`adiNvariabilicasualiodiunvettorecasuale).Si consideri lesperimento casuale in cui una macchina sceglie un punto su una circonferenzadi lunghezzaL, senzafavorirnealcuno: adesempiopercorrelacirconferenzaavelocit`acostante e viene fermata da un passante ignaro, invitato a premere un bottone. Il risultatodellesperimento `e il numero reale Xcoordinata del punto sulla circonferenza (0 X< L).`EragionevoleassumereP(a X b) =b aL0 a b < L (1.7)cio`echelamisuraprobabilit`asiaproporzionaleallamisurageometrica. Inquestocasolospaziodeirisultati`edettouniforme, oequiprobabile; ed`eovvialageneralizzazioneapi` udimensioni,casiincuilamisurageometricasar`aunarea,unvolume,ecc.Si noti bene che la (1.7) non `e aatto vera per denizione: `e solo una ragionevole assegna-zionediprobabilit`a,dellecuiconseguenzesisar`acomunqueresponsabili.Siosservicherisulta,perognia,P(X= a) = 0 (1.8)cio`etuttiirisultatihannoprobabilit`anulla, pur non essendo ovviamente impossibili. Ana-logamentelevento {X`eunnumerorazionale}haprobabilit`anullapuressendocomposto10 CAPITOLO1. PROBABILIT`AEVARIABILICASUALIda inniti risultati. Infatti `e noto che `e nulla la misura del corrispondente insieme di punti.Nepotrebbeesserediversamente: infatti i razionali sononumerabili, esommandoleloroprobabilit`a(tuttenulle)si ottienerisultatonullo. Linsiemedei reali invecenon`enume-rabile. Nonc`equindi nulladi incongruentenel fattochesiaP(X=a)=0perogni a,maP(0 X< L) = 1. Infattinon`elecitoaermarecheP(0 X< L)sideveotteneresommandoinnitevoltezero.Adogni modoconoscereleprobabilit`a, tuttenulle, di tutti i risultati nonserveanulla.Occorreunadiversaassegnazione(congruente)di probabilit` a, qualepu`oesserela(1.7).Assegnazionipi` uconvenientidella(1.7)sivedrannofrabreve. OsserviamoanchecheP(X = a) = 1 (1.9)dacuisivedecheleventoconprobabilit`a1pu`ononesserecerto.Si immagini orachelamacchinapercorralacirconferenzaavelocit`avariabile, inmodoperiodico. Ancorasi haP(X=a) =0, cio`etutti i risultati sonoequiprobabili, seperrisultatointendiamoilnumerorealeX. Daltrapartenonpossiamonevogliamodirechelospaziosiauniforme. Invecedi insistereaconsiderarelevento {X=a}, si considerilevento, ad esso equivalente ad ogni scopo pratico, {a < X a+dx}, con dx > 0. Questoavr`a probabilit`a innitesima, ma non nulla. La disuniformit`a dei risultati apparir`a evidenteserisultaP(a < X a + dx)) = P(b < X b + dx) (1.10)DunqueperunagenericavariabilecasualeXunasignicativaassegnazionediprobabilit`aconsisteneldarelafunzione5fX(x) =P(x < X x +dx)dx(1.11)perognivaloredellargomentox.LafunzionefX(x)vienedettadensit` adi probabilit`a, spessoabbreviatoinddp, odensit` a.Inquestocasosi trattadi unaprobabilit`aper unit`adi lunghezza. Si noti benecheladensit` adiprobabilit`anon`eunaprobabilit`a,malodiventasemoltiplicataperdx.Inungenericoesperimentocheproduceunavariabilecasualenonc`eovviamentelalimi-tazione 0 X< L e quindi si dovr`a dare la densit`a di probabilit`a per ogni possibile valoredelrisultato.Lassioma3diventaP(a < X b) =_bafX(x)dx b a (1.12)5nellaletteraturaanglosassone, soprattuttonelleapplicazioni ingegneristiche, vienepi` uspessoindicataconpX(x)S.Bellini 1.4. Spaziconuninnit`anonnumerabiledirisultati 11da cui si vede anche come calcolare la probabilit`a che Xappartenga allunione di un numerodiintervalliqualsiasi,ancheinnito,purchenumerabile.Il motivo per cui nella denizione di densit`a di probabilit` a si preferisce considerare levento{x < X x +dx} anziche {x X x +dx} `e che si ottiene il segmento (a, b] accostandointervallidiquestotipo6quandosicalcolaP(a < X b). Questaprecauzione `edeltuttoirrilevantencheP(X= x) = 0perognix. SipotrebbedenireladdpcomefX(x) =P(x X x + dx)dx(1.13)Condizioniperlacongruenzadellassegnazionediprobabilit`atramiteunaddpsonofX(x) 0 perognix (assioma1) (1.14)e_fX(x)dx = 1 (assioma2) (1.15)Qualsiasi densit`a`e nonnegativa, edhaintegrale unitario. Nellanormale teoriadellevariabilicasualinon `eammessocheXvalga o+conprobabilit`amaggioredizero.Sonotuttaviapossibiligeneralizzazioni,chenonsarannoconsiderateinquestotesto.Un altro modo per assegnare le probabilit`a `e scegliere gli eventi {X a}, per ogni a, e darelafunzionedi distribuzione7opi` usemplicementedistribuzione(imatematicisolitamentelachiamanofunzionediripartizione)FX(a) = P(X a) (1.16)perognivaloredellargomentoa. Lassioma3imponechesiaP(a < X b) = FX(b) FX(a) b a (1.17)elecondizioniperlacongruenzasono(assioma1)FX(b) FX(a) b a (1.18)e(assioma2)FX() = 1 (1.19)esihaancheFX()=0. Qualsiasifunzionedidistribuzioneparteda0edarrivaad1inmodomonotononondecrescente.`EpoiimmediatovericarechefX(x) =dFX(x)dx(1.20)6alcunipreferiscono {a X< a +dx}eP(a X< b),mainpraticaci`ononcomportaalcunadierenza7si vivebeneanchesenzalafunzionedi distribuzione; lautoredi questenotehabenpresenteunottimolibroincuinonvieneneppuredenita;neipochicasiincuiserve `esemplicementeindicataconP(X a)12 CAPITOLO1. PROBABILIT`AEVARIABILICASUALIecheFX(x) =_xfX(x) dx (1.21)`Equindi agevole passare dallunaallaltradescrizione. Si noti invece che nonsarebbeaattoconvenienteassegnarefunzioni comegX(a, b) =P(a P(A)seP(B) < 1. Tuttavia `eanchepossibilechesiaP(A|B) = P(A).SeP(A|B)=P(A)leventoA`ealtrettantoprobabilenellesperimentooriginaleedinquellocondizionatoaB; ovvero, sapere che si `e vericatoBnonmodicale nostreattese sullevento A. Si noti che risulta anche P(A, B) = P(A)P(B), e quindi P(B|A) =P(B). Gli eventi AeBsi diconostatisticamenteindipendenti, oppurepi` ubrevementeindipendenti.Perfareunsempliceesempio, consideriamolestrazionedi unapallinadaunurnachenecontiene5rossee5nere, numerateda1a5edindistinguibili peril resto. Prendiamocomerisultati elementari ledieci palline, che`epossibileindividuaremediantelacoppia(colore,numero), eci prendiamolaresponsabilit`adi assumerechei dieci risultati siano10molti preferisconoseparare leventoAdaquellocondizionante Bconunabarraobliqua, e scrivonoP(A/B)18 CAPITOLO1. PROBABILIT`AEVARIABILICASUALIequiprobabili11. Conquestaassegnazionedi probabilit`a`efacilevericarechesonoindi-pendenti gli eventi A ={pallina rossa} e B={numero 3}. Infatti, calcolando le probabilit`aconilsempliceconteggiodeirisultatiinclusineglieventi,siottieneP(A) =510=12P(B) =210=15P(A|B) =P(A, B)P(B)=1/102/10=12P(B|A) =P(A, B)P(A)=1/105/10=15(1.42)Conchefrequenzaci aspettiamounapallinarossa? econchefrequenzasequalcunohavisto la pallina estratta e ci comunica che `e una numero 3?Con che frequenza ci aspettiamounapallinanumero3?econchefrequenzaseveniamoasapereche `erossa?Gli eventi A e Bnon sarebbero invece indipendenti se lurna contenesse 5 palline rosse e 3nere(numerateda1a3). InfattisiavrebbeP(A) =58P(B) =28=14P(A|B) =P(A, B)P(B)=1/82/8=12P(B|A) =P(A, B)P(A)=1/85/8=15(1.43)Le palline rosse sono pi` u numerose delle nere,e quindi P(A) > 1/2. Tuttavia se sappiamochelapallina`eunanumero3restanosoloduealternative: unarossaeunanera. Analo-gamente le palline numero 3 sono due, su un totale di otto. Ma se sappiamo che la pallinaestratta `erossac`eunasolanumero3suuntotaledicinque.Appareragionevoleassumereindipendenti eventi relativi aprovediverseinunesperi-mentocompositoincui si ripetapi` uvoltelostessoesperimentosemplice. Inquestoilcasosiparladiproveripetute.Ad esempio in lanci successivi di moneta sar`a ragionevole assumere che siano indipendentigli eventi A ={testa al secondo lancio} e B={croce al primo lancio}. Si noti che anche in11nonaspettiamoci mai chelateoriadelleprobabilit` aci dicaquali sonoi valori delleprobabilit` a; comepotrebbelateoriastabilireconcheprobabilit` anasceunmaschioounafemmina?S.Bellini 1.6. Probabilit`acondizionate,indipendenzastatistica 19questo caso la statistica indipendenza `e unipotesi, che viene a far parte della assegnazionedi probabilit`a. Siamo comunque responsabili delle conseguenze di questa ipotesi sui risultatidelcalcolo.Quandoassumiamolindipendenzadidueeventicalcoliamosemplicementelaprobabilit`acongiuntacomeprodottodelleprobabilit`a:P(A, B) = P(A)P(B) (1.44)Se invece preferissimo pensare che in lanci successivi di monete ci sia una qualche forma dimemoriaavremmoilproblemadifornireivaloridelleprobabilit`acondizionatechedescri-vonolemisterioseinterazionitrairisultatideilanci. Comesivede,dobbiamorallegrarcichelesperienzamostrichelemonetenonhannomemoria.Nel caso di variabili casuali non vi `e dicolt`a a denire densit`a o distribuzioni condizionatequali12fX(x|B) =P(x < X x + dx|B)dx=P(x < X x + dx, B)P(B) dx(1.45)eFX(x|B) = P(X x|B) =P(X x, B)P(B)(1.46)ed `esemplicemostrareche,comealsolito,ladensit`a `eladerivatadelladistribuzione:fX(x|B) =ddxFX(x|B) (1.47)LeventocondizionanteB`edeltuttogenerico,equindipotrebbeessere {X a},oppure{a x0) =fX(x)P(X> x0)= aexp(a(x x0)) x > x0(2.76)Seiltempodiattesadiuneventocasuale `eunavariabilecasualeesponenziale,quandosisiaatteso(inutilmente)peruntempox0il tempodi attesarestanteX x0halastessaddpesponenzialecheavevainizialmente. Il restantetempomediodiattesa`eancora1/a,comeselattesaavesseinizioaltempox0.2.5.3 DistribuzioneLaplacianaUnavariabilecasualeLaplacianahaddpf(x) =a2 exp(a|x|) (2.77)Essendoladdpsimmetrica,ilvaloremedio `enullo. Ilcalcolodellavarianza `emoltosimilealprecedente,ed`a2X=2a2(2.78)62 CAPITOLO2. TEOREMILIMITEAncheilcalcolodellafunzionegeneratricedeimomenti `esimile,esiottieneMX(s) =a2a2s2(2.79)2.5.4 DistribuzionegaussianaConsideriamoanzituttolavariabilecasualeconddpf(y) =12exp_y22_(2.80)chehavaloremedionulloevarianzaunitaria,comesivedr`atrapoco.Occorre anzitutto mostrare che lintegrale di f(y) `e unitario. Il modo pi` u rapido `e calcolareilquadratodellintegrale,usandolecoordinatepolariperlintegraledoppio18:_12exp_y22_dy_12exp_z22_dz==__12 exp_y2+ z22_dy dz=_2012 d_0exp_22_ d = 1(2.81)Laddp`e simmetrica intorno allo zero e quindi E[Y ] = 0. Si ottiene la varianza integrandoperparti:_y22exp_y22_dy= y2exp_y22_+_12exp_y22_dy= 1 (2.82)Siottienefacilmenteanchelafunzionegeneratricedeimomenti:M(s) =_12exp_y22_exp(sy) dy== exp_s22__12exp_(y s)22_dy= exp_s22_(2.83)Lafunzionecaratteristicasiottienesostituendojuads:(u) = exp_u22_(2.84)Unagenericavariabilecasualegaussiana(onormale)`eottenutadaY mediantelafun-zionelineareX=XY+ mX. EvidentementeXhavaloremediomXevarianza2X.18sembrachequestocalcolosiadovutoaGaussS.Bellini 2.5. Variabilicasualidimaggiorinteresse 63Considerando Xfunzione della variabile casuale Ysi ottiene immediatamente la ddpdi X:f(x) =12Xexp_(x mX)222X_(2.85)funzionesimmetricaintornoamXincuisonomessiinevidenzavaloremedioevarianza.Inx = mX Xladdpgaussianahaampiezzapariacircail60%delmassimo.La funzione caratteristica di una variabile casuale gaussiana con valore medio nullo e varianza 2si ottieneconunsemplicecambiamentodivariabilinellintegralechedeniscelafunzionecaratteristica. Ilrisultato`e(u) = exp_2u22_(2.86)2.5.5 Distribuzionedi RayleighUnavariabilecasualediRayleighhaddpf(x) =_xa2 exp_x22a2_x 00 x < 0(2.87)ImomentidelprimoedelsecondoordinesonoE[X] =_0x2a2exp_x22a2_dx =_2a (2.88)E[X2] =_0x3a2exp_x22a2_dx = 2a2(2.89)dacuisipu`oricavarelavarianza.Si pu`o mostrare che si ottiene una variabile casuale di Rayleighdalla radice quadrata dellasommadeiquadratididuevariabilicasualigaussianeindipendenticonvaloremedionullo(sivedanogliesercizi).2.5.6 Distribuzionedi Bernoulli`Eilcasodiscretodiduesolirisultati,0e1,conprobabilit`a19P(0) = 1 peP(1) = p. Sisonogi`avistiilvaloremedioelavarianza,datirispettivamentedapep(1 p).19laprobabilit` a1 pdellozerovienespessoindicataconq64 CAPITOLO2. TEOREMILIMITE2.5.7 Distribuzionebinomiale`E la distribuzione che si ha eseguendo Nprove di Bernoullie contando il numero di successi.Si sonogi`avisti il valoremedioNp, lavarianzaNp(1 p)elafunzionegeneratricedeimomenti (pexp(s) +1 p)N. Inoltre si `e visto il comportamento asintotico per Ngrande,datodal teoremadi De Moivre-Laplace, che`eallabasedellapossibilit`adi misurare leprobabilit`adeglieventi.2.5.8 Distribuzionegeometrica`EladistribuzionedelnumerodiproveKcheoccorreeettuareperottenereperlaprimavoltauneventocheabbiaprobabilit`apnellasingolaprova20. PoichesiottieneK= kseesoloseleprimek 1provedannoinsuccessoelak-esimad`asuccessosihaP(k) = p qk1(2.90)doveq= 1 p.`EfacilevericarechelasommadelleP(k) `eunitaria:

k=1P(k) = p

k=1qk1= p

j=0qj=p1 q= 1 (2.91)La probabilit`a che il numero di prove superi k0 `e la probabilit`a che le prime k0prove dianoinsuccesso,ovveroP(K> k0) = qk0.Unaosservazioneinteressante`echeladistribuzionegeometrica`esenzamemoria, comelesponenzialedicui `elaversionediscreta. InfattiP(K= k|K> k0) =P(K= k)P(K> k0)=pqk1qk0= pqkk01k > k0(2.92)Sesi `elanciataunamonetak0voltesenzaotteneretestail numerodi lanci cheancoraoccorre fare per ottenere testa ha la stessa distribuzione geometrica che aveva allinizio deilanci.Lafunzionegeneratricedeimomenti `eM(s) =

k=1p qk1exp(sk) =pq(1 q exp(s))(2.93)edaquestasipossonofacilmentericavareilvaloremedio21E[K] =1p(2.94)20talvoltavienedettageometricaladistribuzionediK 1, cio`edelnumeroditentativicheprecedonoilsuccesso21ilcalcolodirettodi

k=1kp qk1edi

k=1k2p qk1`eunpopi` ucomplicatoS.Bellini 2.6. Diseguaglianzadi Chebychev 65(che non sorprende: il numero medio dei tentativi per ottenere un successo `e pari allinversodellaprobabilit`adi successo; eseguendolesperimentounnumerograndissimodi voltesiottieneinmediaunsuccessoogni1/pprove)elavarianza2K=qp2(2.95)2.6 Diseguaglianzadi ChebychevPer una variabile casuale Xnon negativa e per ogni a > 0 vale una semplicissima disegua-glianza,dovutaaMarkov:P(X a) =_af(x) dx 1a_axf(x) dx 1a_0xf(x) dx =E[X]a(2.96)Eccounbanaleesempiodiquantopossaesseredebolequestadiseguaglianza: selaltezzamedia di una popolazione `e 170 cm la probabilit`a che un essere umano scelto a caso sia altopi` u di 170 metri `e minore di 1/100. Ma si possono costruire esempi in cui la diseguaglianza`emoltopi` ustretta.Applicandoladiseguaglianzadi Markov allavariabilecasuale(X mX)2cona=2siottieneladiseguaglianzadiChebychevP(|X mX| > ) = P((X mX)2> 2) 2X2(2.97)Anchequestadiseguaglianza`esolitamentemoltodebole, ma`elapi` ustrettachesipossascrivereconoscendosololavarianzadiX(sivedanogliesercizi).`Ecomunquesucienteperdimostrarerapidamentelagi`aenunciataleggedeboledeigrandinumeri.2.7 Leggedeboledei grandi numeriSi `egi`aenunciataedimostratalaleggedeboledeigrandinumeriperlafrequenzarelativadiuneventoA,chetendeallaprobabilit`aP(A). Ora`epossibiledimostrareunaversionepi` ugenerale. SiaXN=1NN

i=1Xi(2.98)lamediaaritmeticadiNvariabilicasualiXiindipendentieconugualedistribuzione,convaloremediomXevarianza2X. IlvaloremediodiXN`eE[XN] =NmxN= mX(2.99)66 CAPITOLO2. TEOREMILIMITEelavarianzadiXN`e222XN=N2xN2=2xN(2.100)equindi,perogni > 0,altenderediNallinnitosihaP(|XN mX| > ) 2XN2 0 (2.101)Il puntofondamentaledi questasemplicedimostrazione`echelamediaaritmeticaXNdeirisultatidelleNprovehavarianzachetendeazeroecio`eXNdiventasempremenocasuale.Laleggedeboledei grandi numeri`edimostrabile, conargomenti pi` ucomplessi, anchesenonesiste2X,purcheesistailvaloremedio.Si noti che non `e necessario che le Nvariabili casuali Xisiano prodotte da un esperimentoconsistenteinproveripetute. Qualunquesialesperimento,selevariabilicasualiXisonoindipendenti vale la legge dei grandi numeri. In generale Nvariabili casuali Xiprodotte inunesperimentopossonoesserenonindipendenti. Cisipu`ochiedereseesistaunaqualcheforma della legge dei grandi numeri per variabili casuali correlate. La risposta `e aermativa,anchesequiperbrevit`anonsiapprofondiscelargomento(sivedanogliesercizi).Laformadi Bernoulli dellaleggedei grandi numeri, ottenuta150anni prima,`euncasoparticolaredel teoremaappenadimostrato. Bastadenirelevariabili casuali Xicomenella (2.68). La somma degli Xi `e il numero di successi nelle Nprove e la media aritmeticadegliXi`elafrequenzarelativadelleventochiamatosuccesso. Laleggedeigrandinumeriaermaquindi chelaprobabilit`achelafrequenzarelativasi discosti dallaprobabilit`adisuccessopi` udiunpiccoloapiaceretendeazeroperNtendenteallinnito.Quindi nonsarebbestatoneppurenecessariospenderetempoperdimostrarelaformadiBernoulli dellaleggedeigrandinumeri. Sarebbebastatoconsiderarlouncasoparticolaredel teoremapi` ugeneraleappenadimostrato. Tuttaviacapirechelafrequenzarelativatendeallaprobabilit`a `ecos`importanteche `emegliodimostrarlononappenapossibile.2.8 Leggefortedei grandi numeriChesensopraticosipu` odareaunaprobabilit` achetendeauno?Siimmaginiunnumerograndissimodisperimentatori,ognunodeiqualiesegueunnumeropressato Ndiproveecalcolalamediaaritmeticadeirisultati. Pressochetutti trovanounvalorechesi discostapocodal valoremedio. Possonoesserci alcunisfortunatichetrovanoscostamentimaggiori. Maseoratuttiproseguisseroconaltreprove?Ancorapochitroverebbero scostamenti grandi. Ma la domanda `e: sono gli stessi pochi sfortunati di prima,oppure tutticorronoil (piccolo)rischiodi vederepeggiorarelaloromediaaritmeticaequindi nonpossonosentirsi alsicuro?22un errore frequente dei principianti `e dimenticare che la varianza `e il valore medio di unquadrato; quindisesidividelavariabilecasualeperNlavarianzarisultadivisaperN2S.Bellini 2.9. Teoremadellimitecentrale 67Bastacheesistailvaloremedioperchesipossadimostrareunteoremapi` urassicurante,dettoleggefortedeigrandinumeri chegarantiscelaconvergenzaquasicertalimNP(|XN mX| < , |XN+1mX| < , |XN+2mX| < , . . .) = 1 (2.102)In sostanza, con probabilit` a 1 esiste il limite della successione {XN} nel senso dellanalisi matematica. Perpressoche tutti gli sperimentatori la media aritmetica non si discoster` a pi` u di dal valore medio, a partiredallN-esimaprovainpoi.Esistonomoltealtreversionidellaleggedeigrandinumeri,anchepervariabilicasualiXiconddpdiversetraloroepervariabilicasualicorrelate.2.9 Teoremadel limitecentraleLe dimostrazioni delle varie forme della legge dei grandi numeri non determinano esplicita-mente laddpdi XN. Nel caso particolare della frequenza relativa(prove diBernoulli )erastatofaciletrovareottimeapprossimazioni delleprobabilit`adel numeroKdi successi, equindi dei valori della frequenza relativa (teorema di De Moivre-Laplace). Ci`o consente nonsolodi saperecheperNtendenteallinnitolafrequenzarelativatendeallaprobabilit`a,maanchedivalutareesplicitamentequantopu`odiscostarsenepervalorinitidiN.Pi` uingenerale,quandolagrandezzadiinteresse `elamediaaritmeticaXNdiNvariabilicasualiXi(oppurelasommadelleNvariabilicasuali),sivorrebbedeterminareladdpditale variabile casuale. Per semplicit`a nel seguito si esaminer` a solo il caso di variabili casualiXiindipendentieconlastessadensit`afX(x).Valoremedioevarianzadellamediaaritmeticaedellasommasi determinanoimmedia-tamente, comegi`avisto. PoicheperN lavarianzadellamediaaritmeticatendeazero, equelladellasommatendeainnito, perdescriverelaformaacui tendeladdp`econvenienteesaminarelavariabilecasualenormalizzataYN=N

i=1XiNmXNX(2.103)dovesi`esottrattoil valoremedioesi`edivisoperlaradicedellavarianza, inmodocheperogniNilvaloremediodiYNsianulloelavarianzasiaunitaria.Sipu`odimostrarecheseesoloseesiste2XladistribuzionediYNtendeuniformementeperN alladistribuzionegaussiana,qualunquesiaf(x).Poicheil valore mediodi YN`enulloelavarianza`e unitaria, ladistribuzionedi YN`ecompletamenteindividuata23.23selevariabili casuali Xihannoddpcontinuaancheladdpdi YNtendeallagaussiana; selevariabilicasuali sono discrete e possono assumere solo valori equispaziati (ad esempio solo valori interi) laddpdellamedia `ecostituitadaimpulsiqualunquesiaN(sivedanogliesercizi)68 CAPITOLO2. TEOREMILIMITE10 8 6 4 2 0 2 4 6 8 1000.020.040.060.080.10.120.140.16yf(y)densit esattaapprossimazione gaussianagaussiana correttaFigura2.10: Densit`adellasommadiquattrovariabilicasualilaplaciane,approssimazionegaussianaeapprossimazioneconprimoterminecorrettivoSi noter`acheil teoremadi DeMoivre-Laplacenon`echeuncasoparticolaredel teoremadellimitecentrale.Solitamente la convergenza `e abbastanza rapida, soprattutto se f(x) `e una funzione simme-trica. Inoltresipu`omoltomigliorarelapprossimazionegaussianaaggiungendoopportunitermini correttivi (per i quali si rimandaatesti pi` uspecializzati) purche sianonoti imomentim3,m4,. . . dellavariabilecasuale.Naturalmente in pratica interessano solo valori niti di N, ed `e quindi inutile normalizzare.Siuser`alapprossimazionegaussianadelladdp,conilvaloremedioelavarianzaeettivi.Ad esempio la g. 2.10 mostra laddpdella somma (non normalizzata) di quattro variabilicasualiconddpLaplaciana,lapprossimazionegaussianaeilrisultatochesiottieneconilprimoterminecorrettivo,chedipendedam4.Diamo solo una traccia della dimostrazione del teorema,supponendo per semplicit` a mX= 0 e 2X= 1. SeX(u) `elafunzionecaratteristicadiX,risultayN(u) = E[exp(juYN)] = E[N

i=1exp(juXiN)] =N

i=1E[exp(juXiN)] =_X(uN)_N(2.104)SiricordichesisonopotutiscambiareleoperazionidivaloremedioeprodottoperchelevariabilicasualiXisonoindipendenti24.PoicheesistonoimomentidiXialmenonoalsecondosihalosviluppodiMacLaurin,conilrestonellaformadiPeano,X(u) = 1 u22(1 +R) (2.105)24ilrisultatoottenuto `ebennotonellateoriadeisegnali: latrasformatadiFourierdellaconvoluzione `eilprodottodelletrasformateS.Bellini 2.10. Variabilicasualicongiuntamentegaussiane 69doveilrestoR`einnitesimoperutendenteazero. EdunquesiottieneYN(u) =_1 u22N (1 +R)_N exp(u22) perN (2.106)che `elafunzionecaratteristicadiunavariabilegaussianaconvaloremedionulloevarianzaunitaria.Esistono versioni del teorema del limite centrale anche per variabili casuali Xiaventi ddpdiverse. In questicasilavariabilecasualenormalizzatalacuiddptendeallagaussiana `eYN=N

i=1(XimXi)_N

i=12Xi(2.107)Lacondizionenecessariaesucientepercheil teoremavalga`ebennota, ma`eunpo troppocomplessaperessereriportataqui. Unasemplicecondizionenecessaria `elimNN

i=12Xi= (2.108)che in pratica vieta di sommare variabili casuali Xicon varianze cos` piccole da non essere di fatto casuali(sivedaunesempionegliesercizi). Unasemplicecondizionesuciente `e: esisteun> 0talechelimNN

i=1E[|XimXi|2+]_N

i=12Xi_1+2= 0 (2.109)2.10 Variabili casuali congiuntamentegaussianeSeX1, . . . , XNsonovariabilicasualigaussianeindipendenti, convaloremedionulloeva-rianzaunitariasi denisconocongiuntamente gaussiane siale variabili Xisiavariabilicasuali Ykottenutecomecombinazioni lineari delleXi. Aciascunadellevariabili casualiYksipu`oaggiungereunacostante,inmodocheilvaloremediorisultidiversodazero.Laddpdellevariabili casuali Xi`eil prodottodelleddpmarginali. Perlimportantissimocasodellevariabilicasualicongiuntamentegaussianeconvienerenderemoltopi` usinteticala notazione scrivendo le variabili casuali come vettorix ey e le combinazioni lineari comeprodottodi xperunamatrice25. Denitoil vettorex=[x1, . . . , xN]T, doveTindicailtrasposto,sipu`oscriveref(x) =1(2)N/2 exp_xTx2_(2.110)25matrici e vettori sono sempre pi` u convenienti delle grandezze scalari; si noti che in questa sezione, volendousare le lettere maiuscole solo per le matrici, si utilizzano le lettere minuscole (in grassetto) sia per i vettoridivariabilicasualisiaperivettoriargomentodelleddp70 CAPITOLO2. TEOREMILIMITEdovexTx `elasommadeiquadratidegliargomentixi.Sia ora y = Ax+mil vettore delle combinazioni lineari (dove m`e il vettore dei valori medi),esi suppongapersemplicit`achelamatriceAdei coecienti siaquadrataeinvertibile,ovverochesipossascriverex = A1(y m).LamatricechecontienelecovarianzedellevariabilicasualiXi`eunamatriceidentit`a. LamatricedellecovarianzedegliYk`e = E[(y m)(y m)T] = E[AxxTAT] = AAT(2.111)LoJacobianodellatrasformazione`eil determinantedellamatriceA, pari allaradicedeldeterminantedellamatrice,equindisiottienef(y) =1_(2)N|A|exp_xTx2_ ==1_(2)N||exp_(y m)T(A1)TA1(y m)2_ ==1_(2)N||exp_(y m)T1(y m)2_(2.112)Talvolta`eutileanchelafunzionecaratteristicacongiunta. Denendoil vettoreu=[u1, . . . , uN]TdegliargomentisidimostracheY(u) = exp_juTm_exp_uTu2_(2.113)Come verica della correttezza del risultato si possono calcolare mediante la funzione caratteristica i valorimedielecovarianzedegliYk.Lepropriet`afondamentalidellevariabilicasualicongiuntamentegaussianesonoorafacil-mentededucibili:bastaconoscere il vettore mdei valori medi e lamatrice delle covarianze perconoscereladensit`acongiuntadi variabili congiuntamentegaussiane(pervariabilicasuali generiche valori medi e varianze forniscono una conoscenza solo parziale delladdp)selevariabiliYksonoincorrelatelamatricedellecovarianze `ediagonale;anchelamatrice inversa `e diagonale e la ddp congiunta diventa il prodotto delle ddp marginali;quindi variabili casuali congiuntamentegaussianechesianoincorrelate sonoancheindipendenti (ingeneralelincorrelazionenonimplicalindipendenza)combinazioni lineari Zjdi variabili congiuntamente gaussiane Ykpossono essere con-sideratecombinazioni lineari dellevariabili casuali Xiindipendenti, edunquesonoalorovoltacongiuntamentegaussiane;operazionilinearisuvariabilicongiuntamen-tegaussianedannosemprevariabili casuali congiuntamentegaussiane(ingeneraleoperazionilinearinonconservanolaformadelleddp)S.Bellini 2.11. Esercizi 712.11 EserciziEsercizio2.1. Simostriche,perz> 0,Q(z) =_z12exp(y22_dy 12zexp(z22_Suggerimento: si moltiplichi esi dividaperyesi integri perparti. Lapprossimazione`ebuonaperz> 3.IntegrandonuovamenteperpartisimostricheQ(z) 12zexp(z22__1 1z2_che pu`o essere utile per z> 2.`E possibile integrare ancora ottenendo altre approssimazioni(migliori,mamenocomode).Esercizio 2.2. Si eettuano1000proveindipendenti, conprobabilit`adi successo1/2.Dopo 500 prove il numero di successi `e 220. Quale `e la distribuzione del numero di successiallaconclusionedellesperimento?Quale `eilvaloremediodelnumerodisuccessi?Esercizio2.3.Si lanciano due dadi 3600 volte. Quale `e la probabilit`a di avere esattamente100volteundoppiosei?ediaverealmeno100volteundoppiosei?Esercizio 2.4. Suunsegmentodi lunghezza1000si dispongonocasualmenteconddpuniforme1000punti,indipendentemente. Sicalcolilaprobabilit`adiavereesattamenteunpuntotra0e1. Siapprossimilastessaprobabilit`aconladistribuzionediPoisson.Esercizio 2.5. Lintervallotraeventi di uncertotipoabbiadensit`af(x), convaloremediomXevarianza2X. Sesisceglieacasounpuntosullassedeitempi,quale `eladdpdelladurataY dellintervalloincuiquestocade? Equale`eil valoremediodelladurata?Suggerimento: si usi lintuizione che un intervallo di lunghezza doppia dun altro sar`a sceltoconprobabilit`adoppia;occorrenormalizzareadunolintegraledelladensit`af(y).Nelcasodiddpesponenzialesiverichicheilvaloremediodelladurata `e2mX.Esercizio2.6.Lintervallo tra passaggi successivi di tram di una linea pressata, misuratoinminuti,abbiaddpf(x) =_x/225 0 x 15(30 x)/225 15 x 30Un controllore scende a una fermata e aspetta il tram successivo. Quanto aspetta, in media?Unpasseggeroarrivaacasoallafermata. Quantoaspetta, inmedia? Daquantotempo,inmedia, `epassatoiltramprecedente?Suggerimento: sivedalesercizioprecedente.72 CAPITOLO2. TEOREMILIMITEEsercizio2.7. SimostricheinunadistribuzionediPoissonsihaP(k + i) P(k)_k_i.Quindi le probabilit`a decrescono rapidamente se k . Si usi questo risultato per mostrarecheP(K k) P(k)kk,che `epocomaggiorediP(k).Esercizio2.8. Simostrichesef(x) = 0perx < 0risultaE[X] =_0(1 F(x)) dxSuggerimento: siintegriperparti.Esercizio2.9. SimostricheingeneralerisultaE[X] = _0F(x) dx +_0(1 F(x)) dxSuggerimento: siintegriperparti.Esercizio2.10. SimostricheE[|X|] _E[X2]Suggerimento: siapplichila(2.48)allavariabilecasuale |X|.Esercizio2.11. Levariabili casuali XeY sonoindipendenti euniformi tra0e1. SicalcolinolevarianzediX + Y ,X Y ,2X +Y eX 2Y .Esercizio2.12. Si calcolinovaloremedioevarianzadi Z=N

i=1XiYi, dovelevariabilicasuali Xivalgono 1conugualeprobabilit`a, leYihannovaloremedio1evarianza1etuttele2Nvariabilicasualisonostatisticamenteindipendenti.Esercizio2.13. DuevariabilicasualiXeY sonoindipendenti. Qualedelledueseguentipropriet`a `evera?E_XY_ =E[X]E[Y ]E_XY_ = E[X] E_ 1Y_Esercizio2.14. Duevariabili casuali hannoddpf(x, y) =exp((x + y))perx 0ey 0. Sonoindipendenti?Quantovalgonolacorrelazioneelacovarianza?Esercizio2.15. Levariabili casuali XeY hannovaloremedionullo, varianzaunitariaecoecientedi correlazionelinearer. Si mostri che 1 r 1echer= 1soloseX= Y . Suggerimento: E[(X + Y )2] 0eE[(X Y )2] 0.S.Bellini 2.11. Esercizi 73Esercizio2.16. SigeneralizziilrisultatoprecedenteavariabilicasualiXeY convaloremedioevarianzaqualsiasi. Suggerimento: si considerinolevariabili normalizzate, convaloremedionulloevarianzaunitaria.Esercizio2.17. Si verichi chelafunzionegeneratricedei momenti delladistribuzionebinomialetendeaquelladiPoissonseN ep 0conNp = .Esercizio2.18. Si verichi che il valore medio e la varianza della distribuzione binomialetendonoaquellidiPoissonseN ep 0conNp = .Esercizio2.19. X`eunavariabilecasualeuniformetra0e1. Si mostri cheladdpdiY= log X`eesponenziale,convaloremedio1.Esercizio 2.20. X`eunavariabilecasualeesponenzialeconvaloremedio1/ eKhadistribuzionediPoissonconvaloremedio. SicalcoliP(X> K).Esercizio2.21. Si calcoli lavarianzadi Y =X2, doveXhaddpuniformetra0e1.Suggerimento: nonsicalcolifY (y).Esercizio2.22. X`eunavariabilecasualeesponenzialeconvaloremedio1. Y vale0seX 1evale1seX> 1. SicalcolinovaloremedioevarianzadiY .Esercizio2.23. X,Y ,ZeUsonovariabilicasualiindipendenti,conddpuniformetra0e1. SicalcolinovaloremedioevarianzadiW= XY ZU.Esercizio2.24. Levariabili casuali Xisonoindipendenti conddpesponenzialeevaloremedio1. SiaY=N

i=1(1)iXi. SicalcolilavarianzadiY .Esercizio 2.25. X`e unavariabile casuale esponenziale convalore medio1, e Y unavariabilecasualeindipendentechevale1conprobabilit`a1/2e 1conprobabilit`a1/2.Si mostri che la ddp di Z =XY `e laplaciana. Suggerimento: si calcoli la ddp di ZcondizionandoaiduepossibilivaloridiY .Esercizio2.26. Xe Ysono variabili casuali esponenziali con valore medio 1. Si calcolinovalore medio e varianza di Z= X Y . Si mostri che Z`e una variabile casualelaplaciana.Suggerimento: convieneusarelafunzionegeneratricedei momenti. Innesi verichi chesianocorrettivaloremedioevarianzacalcolatiinprecedenza.Esercizio2.27. XeY sianovariabili casuali gaussianeindipendenti, convaloremedionulloevarianzaunitaria. SimostricheladdpdellavariabilecasualeZ=X2+Y2`ediRayleigh.Esercizio2.28.La ddpdi X`e f(x) =1x2per x 1 e Y= log X. Si calcoli il valore mediodiY siadirettamentesiacalcolandoladdpdiY .74 CAPITOLO2. TEOREMILIMITEEsercizio2.29. XeY sianovariabili casuali gaussianeindipendenti, convaloremedionulloevarianzaunitaria. Si mostri cheladdp dellavariabilecasualeZ=X2+ Y2`eesponenziale.Esercizio 2.30. Il tempodi attesadi uneventoabbiadistribuzione esponenziale convaloremediopariaunminuto. Mediamentesihaunsuccessoogniminutoemediamentesi attende unminuto. Si mostri che`e sbagliatoconcludere che conprobabilit`a1/2siattendemenodiunminutoeconprobabilit`a1/2pi` udiunminuto. Simostriinvecechelaprobabilit`adiattenderepi` udiunminuto `eminoredi1/2.Esercizio2.31. K1e K2sono variabili casuali indipendenti con distribuzione geometrica,conp = 1/10. SicalcolinoP(K1= K2),P(K1> K2)eP(K1< K2).Esercizio2.32. SiaZ= XY ,dovelevariabilicasualiXeY sonoindipendentiehannoddpuniforme tra 0 e 1. Si calcoli E[Z]. Poi si determini laddpdi Ze da questa si ricalcoliilvaloremedio. Commento: quantapi` ufatica,nelsecondomodo!Esercizio2.33. Vivienepropostoquestogioco: silancianotredadi(onesti);siperdelaposta se non si ottiene nessun sei; si vince la posta semplice, doppia o tripla se si ottengonorispettivamenteuno, dueotresei. Poicheeseguendomolteproveil sei deveuscirecircaunavoltasusei,esihannoadisposizionetrelanci,ilgiocosembrafavorevole. Segiocate1000voltequantoviaspettatediguadagnareodiperdere?Commento: didatedichiviproponegiochi cheaprimavistapossonosembrarefavorevoli. Dove`enascostoil sottileinganno?Esercizio2.34. Benche la diseguaglianza diChebychevsia solitamente pessimista, si mo-stri con un esempio che non `e possibile trovarne una pi` u stretta conoscendo solo la varianza.Suggerimento: si consideri una variabile casuale discreta che pu`o assumere solo due valori.Esercizio2.35. LaleggedeboledeigrandinumeriaermachelimNP(|1NN

i=1XimX| > ) = 0Sispieghiperchenonsipu`oaermarechelimNP(|N

i=1XiNmX| > ) = 0edanzisimostrichequestaprobabilit`atendea1.Esercizio2.36.Nvariabili casuali Xi hanno valore medio nullo e varianza 2. Le variabilicasuali conindici adiacenti, XieXi+1, hannocoecientedi correlazioner =1/2. Levariabili casuali con indici non adiacenti sono invece incorrelate. Sia Yla media aritmeticadelleNvariabili casuali. Si calcolinovaloremedioevarianzadi Y , esi mostri cheseNtendeallinnitolavarianzatendeazero. Commento: `eunsemplicissimoesempiodivalidit`adellaleggedei grandi numeri nel casodi variabili casuali correlate; si potrebbemostrarechevaleancheilteoremadellimitecentrale.S.Bellini 2.11. Esercizi 75Esercizio2.37. SiaY=1NN

i=1piXiunamediapesatadelleNvariabilicasualidellesercizioprecedente. Ipesipivalgono1/2sei`edisparie3/2sei`epari(sisuppongaNpari). SicalcolinovaloremedioevarianzadiY ,esimostricheseNtendeallinnitolavarianzatendeazero.Esercizio2.38. Si sommano100variabili casuali esponenziali indipendenti, convaloremedio1. Conlapprossimazionegaussianasi calcoli laprobabilit`achelasommasuperi150. Commento: perriferimento,ilvaloreesatto `e5.92 106.Esercizio2.39. Si lanciano100volte10monete. Ogni voltasi vinceladierenzatrailnumerodi testeeil numerodi croci (senegativosi perde). Quale`eil valoremediodellavincita?Concheprobabilit`alavincita `emaggioreougualea20?Esercizio2.40. Levariabili casuali Xiindipendenti abbianodensit`auniformetra 1e1esiaY lalorosomma. LaddpdiY `elaconvoluzionedellequattroddp. Ilrisultatodiquestocalcolo(cherichiedenonpocapazienza) `eunafunzionesimmetrica,chepery 0valef(y) =_(4y)396(2y)3240 y 2(4y)3962 y 4Siconfrontinumericamentequestaf(y)esattaconlapprossimazionegaussiana.Esercizio2.41.Xe Ysono variabili casuali gaussiane con valore medio nullo, varianza 2e coeciente di correlazione r = 1/2. Si calcoli la ddpcongiunta di Z= Xe W= 2Y X.Esercizio2.42. XeY sianovariabili casuali gaussianeindipendenti, convaloremedionulloevarianzaunitaria. SiaZ= X + Y eW= X Y . Sicalcolif(z|W= 1).Esercizio2.43. X`e una variabile casuale gaussiana con valore medio nullo e varianza 2,Y= 1conugualeprobabilit`a,eXeY sonoindipendenti. SiaZ= XY . Quale `eladdpdiZ? XeZsonoincorrelate? XeZsonoindipendenti? Commento: XeZnonhannoddpcongiuntamentegaussiana.Esercizio2.44. X`e una variabile casuale gaussiana con valore medio nullo e varianza 2eY =X2. Si mostri cheXeY sonovariabili casuali incorrelate, manonindipendenti.Commento: nonc`enulladi strano; XeY nonsonocongiuntamentegaussiane, anzi Ynonhaneppureddpgaussiana.Esercizio2.45. SidimostriladiseguaglianzadiChernov:P(X A) exp(sA)E[exp(sX)] perognis > 0P(X A) exp(sA)E[exp(sX)] perognis < 0Suggerimento: siconfrontino,puntoperpunto,lefunzioniintegrande.Sinotichelaprimadiseguaglianza `eutilesoloperA > mXelasecondaperA < mX.76 CAPITOLO2. TEOREMILIMITEEsercizidimaggiorecomplessit`aEsercizio2.46. SimostricheE[|X a|] `eminimosea `etalechesiaFX(a) = 1/2.Esercizio2.47. Levariabili casuali XeY sonoindipendenti ehannoddpesponenzialeconvaloremedio1. SiaZ=XX+Y . SicalcoliilvaloremediodiZ. Suggerimento: cosasipu`odiredelvaloremediodiU=YX+YedelvaloremediodiZ +U?Esercizio2.48. Levariabili casuali XeY sonoindipendenti ehannoddpesponenzialeconvaloremedio1. SiaZ=XX+Y . Si determini laddpdi Zesi verichi il valoremediocalcolatonellesercizioprecedente.Esercizio2.49. Levariabili casuali XeY sonoindipendenti ehannoddpesponenzialeconvaloremedio1. SiaZ=XY . Sicalcoli,seesiste,ilvaloremediodiZ. Sideterminiladdpdi Zedaquestasi ricalcoli il valoremedio. Commento: lavariabilecasualeU=YXhalastessaddp.Esercizio 2.50. Si lanciaripetutamente undado(onesto) noaquandononsi sonoottenutetuttelefaccealmenounavolta. Si calcoli il valoremediodel numerodi lanci.Suggerimento: si mostri cheil numerodi lanci`elasommadi 6variabili casuali conddpgeometrica, con probabilit`a di successo rispettivamente pari a p = 1, p = 5/6, . . . , p = 1/6.Esercizio2.51. Si consideri lasommaY =N

i=1Xidi unnumeroNcasualedi variabilicasuali Xi, conuguale ddp. Conoscendoil valoremedioelavarianzadi Nedi Xisicalcolinoil valoremedioelavarianzadi Y . Suggerimento: si condizioni al valoredi N;nellesperimentocondizionatoNnon`epi` ucasuale. Sifacciaattenzioneanonconfondereimomentidelsecondoordinenoncentraliconquellicentrali.Esercizio2.52. NellasommaY =N

i=1XiilnumeroNdeiterminihadistribuzionegeo-metricaconprobabilit`adisuccessopelevariabilicasualiXihannoddpesponenzialeconvaloremedio1. Si calcoli laddpdi Y . Suggerimento: si condizioni al valoredi N; perevitareleconvoluzioni di Nddpsi usi lafunzionegeneratricedei momenti. Si calcolinovaloremedioevarianzadiY esiconfronticonirisultatidellesercizioprecedente.Esercizio2.53. Una prova d`a probabilit`a di successo p. Si ripete no a quando si ottieneil K-esimosuccesso, conKpressato. Quale`elaprobabilit`adi dovereseguireNprove?Suggerimento: si devonoottenereK 1successi inN 1proveesuccessonellN-esimaprova. AttenzioneanonconfonderequestoesperimentoconquellodelleproveripetuteincuiN`essatoeK`ecasuale.Esercizio2.54. X`eunavariabileconddpuniformetra /2e/2. Si mostri cheilvaloremediodi Y =tan Xnonesiste. Tuttavialaddpdi Y esiste. Lasi determini esidiscutaperchenonesisteilvaloremedio.S.Bellini 2.11. Esercizi 77Esercizio2.55.Una variabile casuale Xcon valore medio non nullo viene raddoppiata conprobabilit`a p e dimezzata con probabilit`a 1p per Nvolte, indipendentemente. Per qualevaloredi pil valoremediorestainvariato? Suggerimento: il valoremediodel prodotto`eparialprodottodeivalorimedi.Esercizio2.56. XeY sonovariabili casuali gaussianeindipendenti, convaloremedionullo e varianza unitaria. Si calcoli P(X +Y> 1|X +Y> 0). Suggerimento: non occorreconsiderareduevariabilicasuali.Esercizio2.57. Sapendo che E[cos aX] = exp_a22_ e che E[sin aX] = 0 per ogni valoredia `epossibileconoscereladdpdellavariabilecasualeX?Esercizio2.58. Le variabili casuali X,Ye Zgaussiane indipendenti hanno valore medionulloevarianzaunitaria. SiaW= X + Y+ Z. Sicalcolif(x|W= 0).Esercizio2.59. Si consideri lavariabilecasualeY ottenutasommandoquattrovariabilicasualiXiindipendenticonddpLaplacianaf(x) =12 exp(|x|). Sicalcoliilmomentodelquartoordinem4diY .Esercizio2.60. Si eettuano10000proveindipendenti, conprobabilit`adi successop=0.5. Finoaquali valori di ksi pu`oritenerevalidalapprossimazionegaussiana? Quantopu`ovalereP(k)agliestremidellintervalloincuilapprossimazione `ebuona?Esercizio2.61. Si lanci 100volteunamoneta, esiaY =100

i=1Xiil numerodi teste, conXi= 0 o 1. Si mostri che E[exp(sY )] = 2100(exp(s)+1)100. Si utilizzi la diseguaglianza diChernovper maggiorare P(Y A). Si mostri che il valore pi` u conveniente di s `e logANA.Si calcoli il risultatoperA=50, 90, 99, 100elosi confronti (sepossibile)conil risultatoesatto, con lapprossimazione gaussiana e con la diseguaglianza diChebychev. Commento:la diseguaglianza di Chernov`e utile per valori estremi di A, molto lontani dal valore medio.Esercizio 2.62. Inunesperimentodi prove ripetute N=100e p =0.1. Si calcoliP(k 50) con lapprossimazione gaussiana e con la diseguaglianza di Chernov. Commento:perriferimento,ilvaloreesatto `e5.83 1024.Esercizio 2.63. Levariabili casuali Xiabbianoddp di Cauchy f(x) =1(1+x2), lacuifunzionecaratteristica`eX(u)=exp(|u|). Esaminandotalefunzionecaratteristicasimostri che il valore medio non esiste. Considerando le potenze della funzione caratteristicasimostricheladdpdellasommadellevariabilicasualinontendeallagaussiana,equindinonvaleilteoremadellimitecentrale. Commento: sinoter`acheperogniNladdpdellasommarimanediCauchy.Esercizio2.64. LevariabilicasualiXiabbianoddpuniformef(x) = 2i1tra 2ie2i.Si mostri che la densit`a di Y=N

i=1Xi non tende alla gaussiana per N . Suggerimento:quantovalefY (2)?QualecondizionesullevariabilicasualiXinon `evericata?78 CAPITOLO2. TEOREMILIMITEEsercizio2.65. SeX1, X2, X3, X4sonovariabili casuali congiuntamentegaussianeconvaloremedionulloematricedellecovarianzequalsiasi,simostricheE[X1X2X3X4] = E[X1X2]E[X3X4] +E[X1X3]E[X2X4] + E[X1X4]E[X2X3]Suggerimento: si derivi lafunzione caratteristicacongiunta. Commento: alcune dellevariabilicasualipossonocoincidere;adesempiosihaE[X21X22] = E[X21]E[X22] + 2(E[X1X2])2E[X4] = 3(E[X2])2= 34XCapitolo3Processi casualiUna denizione generale diprocessocasuale1prevede una qualunque collezione di variabilicasualiindicizzateinmodoappropriato. AncheunaN-pladivariabilicasualiX1, . . . , XNpotrebbequindi essereconsiderataunprocessocasuale. Nonsi vedetuttaviaqualesiailvantaggiodiquestodiversopuntodivista. Difattoiprocessicasualidimaggiorinteressesonoquellicheprevedonouninnit`anumerabileononnumerabiledivariabilicasuali.3.1 Processi casuali discreti econtinuiSelevariabilicasualichecostituisconoilprocessosononumerabiliilprocessovienedettodiscreto. Le variabili casuali possono essere individuate da un indice intero, ad esempio da1a oppureda a . Sei `elindicesipotr`aindicareconXisialasingolavariabilecasuale,quandoihaunvaloredeterminato,sialinteroprocesso.Ilprocesso `edettocontinuosesihauninnit`anonnumerabiledivariabilicasuali,messeincorrispondenzaconunavariabilereale. Il casopi` uintuitivo, acui si far`ariferimentonelseguito,`equelloincuilavariabilereale `eiltempo. SeX(t) `eilvalorecasualediunafunzione del tempo allistante t, lasciando correre il tempo da a si ha una collezionediinnitevariabilicasuali.LesecuzionedellesperimentoproducelinterafunzionecasualeX(t),chevienedettarea-lizzazione del processo. Ripetendolesperimentosi ottieneunadiversarealizzazione. Ilprocesso X(t) pu`o essere visto come una collezione di innite variabili casuali, o come unafunzione casuale del tempo, denita da a . Se si considera un t ssato X(t) `e invecela singola variabile casuale oppure il valore che la funzione casuale estratta nellesperimentoassumealtempot. IlsignicatodiX(t) `edisolitoevidentedalcontesto.Lavariabilereale che individualeinnite variabilicasualipotrebbe essere,anziche iltem-po, unacoordinataspaziale. Si potrebbeancheavereunacollezionedi variabili casualifunzioni di pi` u coordinate (spaziali, temporali, o di altra natura). Se la variabile `e il tempo1oprocessoaleatoriooancheprocessostocastico,opi` usemplicementeprocesso7980 CAPITOLO3. PROCESSICASUALIlesecuzionedi pi` uprovedeveevidentementeesserepensatainparallelo: non`epossibile,terminata una prova, tornare indietro nel tempo per ripetere lesperimento. Inoltre pensareadunesperimentocheduradat = at = `eovviamenteunidealizzazione.3.2 Descrizionestatisticadi unprocessocasualeLa prima questione da arontare `e come descrivere in modo completo lassegnazione di pro-babilit`aalleinnitevariabilicasualichecostituisconoilprocesso,essendosubitoevidentechenonsi pu`odareunaddpcongiuntafunzionedi innitevariabili. Perunadescrizionestatistica completa del processo si dovranno saper scrivere le ddpdi un numero Nqualsiasidivariabilicasuali,comunqueindicizzate. Adesempionelcaso continuosidovr`aessereingradodideterminarefX(t1),...,X(tN)(x1, . . . , xN) (3.1)per ogni Ne, ssato N, per ogni N-pla t1, . . . , tN. Ovviamente non si potr`a scrivere a priorilinterainnitacollezioneditaliddp. Sidovr`apiuttostoavereunaregolacheconsentadideterminareogniddp.3.2.1 Osservazioni sullanotazioneNella(3.1)risultaambiguosottintendereipedicidelladdp, cio`escriveref(x1, . . . , xN), ameno che dal contesto risulti chiaro quali sono gli istanti di tempo t1, . . . , tN. Anche per que-sto motivo non pochi preferiscono indicare la ddpcongiunta come f(x1, . . . , xN; t1, . . . , tN).Inquestomodoevitanoipedici, emettonoinevidenzacheladdp`eingeneralefunzioneanchedegliistantiditempot1, . . . , tN. Levariabilix1, . . . , xNet1, . . . , tNnonsonoomo-genee, eperquestomotivosi separanoi dueblocchi conunpuntoevirgola. Ci si trovaper`oindicolt`aquandosi vuoleindicareunddpcongiuntadi variabili casuali trattedaduediversiprocessiX(t)eY (t).Alcuni preferiscono fXt1,...,XtN(x1, . . . , xN), eliminando le parentesi a costo di doppi pedici.Per`olanotazionediventanuovamenteambiguasesi sottintendonoi pedici Xt1, . . . , XtN.Altri eliminano i pedici complicando le variabili della ddp, e scrivono f(xt1, . . . , xtN).Questa `eforselanotazionepi` usintetica,manon `elapi` udiusa.Nel caso discreto i problemi di notazione sono un po alleviati dal fatto che basta un indiceinteroperindividuarelavariabilecasuale. Nondi rado, tralaltro, unprocessodiscreto`eottenutoprelevandovaloriequispaziati(detticampioni )diunprocessocontinuo. Seadesempio le variabili casuali di interesse sono X(iT) (i = , . . . , ) queste possono esserepi` usemplicementeindicateconXi.S.Bellini 3.3. Momentidiunprocessocasuale 813.3 Momenti di unprocessocasualeSe di un processo casuale sono disponibili le ddpcongiunte di tutti gli ordini si pu`o, in lineadiprincipio,calcolarelaprobabilit`adiqualunqueeventorelativoalprocesso. Tuttaviainnon pochi casi non sono note tuttele ddp, e si ha una conoscenza solo parziale del processo.`E quindi importante indagare su quali siano le caratteristiche fondamentali di un processo,chepurnonspecicandolocompletamenteconsentanotuttaviadifareprevisioniutili.Si`evistoinprecedenzachenelcasodiunasolavariabilecasualelaconoscenzadeiprimimomenti, il valoremedioelavarianza, nonindividualaddp. Esistonoinniteddpconlostessovaloremedioelastessavarianza. Conoscendosoloquesti momenti nonsi pu`ocalcolare, ad esempio, la probabilit`a che la variabile casuale cada in un intervallo pressato.Tuttaviaquandosi ripetelesperimentoungrandenumerodi volteesi`einteressati allamedia aritmetica dei risultati, basta conoscere il solo valore medio (supponendo che esista)per averegarantitalaconvergenzadellamediaal valoremediostesso(leggedeboledeigrandi numeri). Seesisteanchelavarianzavaleanchelaleggefortedei grandi numerievaleil teoremadel limitecentrale, checonsenteprevisioni moltoutili anchequandoilnumerodiprove `enito.Si `e anche visto con semplici esempi (negli esercizi) che la legge dei grandi numeri pu`o valereancheper variabili casuali correlate. Nonmeraviglier`aquindi chesiapossibileestrarremolta informazione dalla conoscenza dei soli momenti del primo e del secondo ordine di unprocessocasuale.SisuppongaadesempiodivalutarelamediaaritmeticadeivaloricheunprocessocasualediscretoXiassumeperindicicompresitra NaNY2N+1=12N+ 1N

i=NXi(3.2)doveY2N+1`eunavariabilecasualedi cui si vorrebberotrovarealmenoil valoremedioelavarianza. Levariabili casuali Xisarannoingeneralecorrelate, almenopervalori degliindici vicini traloro. Tuttaviasi pu`ocalcolareil valoremediodi Y2N+1comesommadeivalorimedi2E[Y2N+1] =12N+ 1N

i=NE[Xi] dt (3.3)edunquebastaconoscereE[Xi],dettovaloremediodel processo,perogniicompresotraNeN.Per calcolare il valore medio di Y22N+1basta scrivere il quadrato della somma come sommadoppia(occorreusareindici diversi per leduesomme) epoi scambiarevaloremedioe2si ricordi che perche il valore medio di una somma sia uguale alla somma dei valori medi non sono richiestenelindipendenzanelincorrelazione82 CAPITOLO3. PROCESSICASUALIsomme:E[Y22N+1] =1(2N+ 1)2E_N

i=NXiN

j=NXj_ ==1(2N+ 1)2E_N

i=NN

j=NXiXj_ =1(2N+ 1)2_N

i=NN

j=NE[XiXj]_(3.4)Dunquebastaconoscereil valoremedioE[XiXj] del prodottodi variabili casuali preseacoppie,perognicoppiadiindiciiejtra NeN. Talevaloremedio `eunafunzionediie di j, e viene dettafunzionediautocorrelazioneo pi` u semplicementeautocorrelazionedelprocesso.Ilcasocontinuo `edeltuttoanalogo,sostituendointegraliallesomme. LamediadeivaloricheunprocessocasualeX(t)assumenellintervalloditempoda TaT`eY2T=12T_TTX(t) dt (3.5)ComenelcasodiscretosicalcolailvaloremediodiY2TcomesommadeivalorimediE[Y2T] =12T_TTE[X(t)] dt (3.6)per cui basta conoscere il valore medio del processo E[X(t)] per ogni t nellintervallo tra TeT. PercalcolareilvaloremediodiY22Tsiscriveilquadratodellintegralecomeintegraledoppio (occorre indicare le due variabili di integrazione con simboli diversi) e si scambianovaloremedioeintegrale:E[Y22T] =14T2E__TTX(t1) dt1_TTX(t2) dt2_ ==14T2E__TT_TTX(t1)X(t2) dt1dt2_ =14T2_TT_TTE[X(t1)X(t2)] dt1dt2(3.7)ed`e quindi richiesta lautocorrelazione E[X(t1)X(t2)] del processo per tutti i t1e t2compresitra TeT.In modo analogo si potrebbero calcolare (se esistono) i momenti di ordine superiore, sia nelcaso discreto sia nel caso continuo, ma il costo del calcolo aumenta: i momenti di ordine krichiedonosommeointegralik-plidimomentidiordinekdelprocesso.Come si vede la trattazione di processi casuali discreti e continui `e molto simile. Nel seguitopernonduplicarelesposizionesifar`ariferimentoalsolocasocontinuo.S.Bellini 3.4. Processicasualistazionari 833.4 Processi casuali stazionariSeil meccanismocasualecheproduceil processononcambianel tempo, `eragionevoleattenderechepertuttigliNeperogniN-plat1, . . . , tNsiafX(t1+t0),...,X(tN+t0)(x1, . . . , xN) = fX(t1),...,X(tN)(x1, . . . , xN) (3.8)che `e come dire che la descrizione statistica del processo non dipende dalla scelta delloriginedei tempi. Intal casoil processo`edettostazionarioinsensostretto. Spessola(3.8)`evericatasoloperledensit`adel primoedel secondoordine(N=1, 2). Intalecasoilprocesso `edettostazionarioinsensolato.Per capire meglio cosa signica la stazionariet`a `e utile pensare ai modi pi` u semplici per per-derequestacaratteristica. Adesempiosommandoaunprocessostazionariounafunzioneg(t) deterministica, non costante, la ddp`e traslata di g(t) e la stazionariet`a `e persa. Anchemoltiplicando X(t) per una funzione g(t) laddprisulta modicata, e diventa funzione di t.Un altro modo per perdere la stazionariet`a `e integrare il processo X(t) ssando un estremo,peresempioint = 0:Y (t) =_t0X(t) dt (3.9)`EevidentecheY (0) =0non`ecasuale, mentreil genericoY (t) lo`e. Laddp di Y (t)dipende quindi da t. Questo semplice esempio mostra che `e possibile che X(t), derivata diunprocessononstazionarioY (t),siaunprocessostazionario.3.4.1 Valoremedioeautocorrelazionedi processi stazionariPer unprocessostazionario(almenoinsensolato) laddpfX(t)(x) nondipendedat, equindinondipendedatneppureilvaloremediomX= E[X(t)] =_xfX(t)(x) dx (3.10)Ladensit`acongiuntadiX(t1)eX(t2)dipendesolodalladierenzat2t1. QuindianchelautocorrelazioneRX(t1, t2) = E[X(t1)X(t2)] =__x1x2fX(t1)X(t2)(x1, x2) dx1dx2(3.11)`e funzione di t2 t1. Lautocorrelazione viene quindi indicata, conevidente abusodinotazione,conRX(t2t1)oanche,ponendo= t2t1,conRX() = E[X(t)X(t +)] (3.12)84 CAPITOLO3. PROCESSICASUALISinoticheladipendenzadat `esoloapparente. Ilrisultatonon `efunzioneditequindisipu`oscegliereperilcalcolountqualsiasi.Il valore dellautocorrelazione nellorigine RX(0) =E[X2(t)] viene familiarmente dettopotenzadel processo. Moltiprocessicasualihannovaloremedionullo,equindivarianzaepotenzadelprocessovengonousaticomesinonimi.`Eevidenteche, essendoil processostazionario, lautocorrelazione`eunafunzionesimme-trica:RX() = E[X(t)X(t )] = E[X(t + )X(t)] =RX() (3.13)InoltreosservandocheE[(X(t) X(t + ))2] 0echequindiE[(X(t) X(t + ))2] = E[X2(t)] +E[X2(t + )] 2E[X(t)X(t +)] == 2RX(0) 2RX() 0(3.14)si ottiene facilmente che la funzione di autocorrelazione di qualsiasi processo deve soddisfarelecondizioni|RX()| RX(0) perogni (3.15)Quando si considerano due processi casuali stazionari si pu`o denire la correlazione mutua3RXY () = E[X(t)Y (t + )] (3.16)Questafunzionenonhaparticolarisimmetrie.3.4.2 Ergodicit`ainsensolatoDatounprocessostazionarioX(t),siriconsiderilavariabilecasuale(3.5),cheperTtendenteallinnitovienedettacomponentecontinuaovaloremediotemporale dellarealizzazioneX(t). Si pu` odimostrarecheil limiteperTtendenteallinnitoesisteconprobabilit` a1. Tuttaviapotrebbeesserediversodaunarealizzazioneallaltra. IlvaloremediodiY2T`eE[Y2T] =12T_TTE[X(t)] dt =12T_TTmX dt = mX(3.17)enondipendedaT. IlvaloremediodiY22T`eE[Y22T] =14T2_TT_TTRX(t2t1) dt1dt2=12T_2T2TRX()_1 ||2T_d (3.18)3per uniformit`a di notazione c`e chi preferisce scrivere lautocorrelazione RX() come RXX();ecco anchegiusticatoil pressoautonellautocorrelazionedi unprocesso: si trattadellacorrelazionedel processoX(t)consestessoS.Bellini 3.4. Processicasualistazionari 85dovesi `eusatoilcambiamentodivariabilit1t2= . Sottraendoilquadratodelvaloremediosiottiene2Y2T=12T_2T2TCX()_1 ||2T_d (3.19)dovesi `eintrodottalaautocovarianzadelprocessoCX() = RX() m2X(3.20)Il punto interessante `e che se lintegrale da a dellautocovarianza `e nito la varianza di Y2Ttende azeroperTtendenteallinnito,cio`echeancheperivalorimeditemporalidellerealizzazionivalelaleggedeboledeigrandinumerilimTP(|Y2T mX| > ) = 0 (3.21)Conipotesi leggermentemodicate`edimostrabileanchelacorrispondenteversionefortedellaleggedeigrandinumeri.SinoticheCX() = 0equivaleaRX() = m2X,ovveroalfattocheX(t)eX(t +)tendanoadiventareincorrelatiper . Siapurdettoinmodoimpreciso,ci`osignicacheilprocessohamemorianita.QuandolamediatemporaledellerealizzazionilimT12T_TTX(t) dt (3.22)coincideconprobabilit` a1conlamediastatistica(omediadinsieme)E[X(t)] = mXsihalergodicit` adelvaloremedio.In modo analogo si potrebbe investigare sulluguaglianza tra lautocorrelazione dinsieme RX(T) = E[X(t)X(t+)]elaautocorrelazionetemporaledellasingolarealizzazionelimT12T_TTX(t)X(t +) dt (3.23)(anchequestolimiteesisteconprobabilit` a1). Perquestaanalisi, pi` ucomplessa, occorreconoscereimo-menti del quarto ordine del processo. Quando anche lautocorrelazione temporale coincide con probabilit` a1conlautocorrelazionedinsiemesihalergodicit` ainsensolato.3.4.3 Ergodicit`ainsensostrettoSi diceergodicoinsensostrettoun processo casuale in cui le medie temporali ditutti gli ordini coincidonoconprobabilit` a1conlecorrispondentimediedinsieme. Risulta(manon `eilcasodidimostrarloqui)cheun processo `e ergodico in senso stretto se linsieme delle sue realizzazioni non ha sottoinsiemi stazionari insensostrettoaventiprobabilit` adiversada1oda0.Lergodicit` apu` oesserevericataconoscendolemediedinsieme. Tuttaviainmolti casi si hannobuoneragioniperassumerlaapriori,equindilergodicit` avieneutilizzataperdeterminarelemediedinsiemedamisureeseguitesuunasingolarealizzazione.3.4.4 Esempi di processi casualiVediamooraalcunisempliciesempidiprocessicasuali.86 CAPITOLO3. PROCESSICASUALIEsempio3.4.1. Il processopi` usemplicechesi possaproporre, maancheil pi` uinutile,prevede che si estraggauna variabilecasuale A conddpnota,adesempio uniforme tra 0 e1, e si ponga X(t) = A su tutto lasse dei tempi. Le realizzazioni del processi sono dunquedelle funzioni costanti,con ampiezza casuale. Le innite variabili casuali X(t) coincidono.Ilvaloremedio,lautocorrelazioneelautocovarianzadelprocessosonomX= E[X(t)] = E[A] =12(3.24)RX() = E[X(t)X(t + )] = E[A2] =13(3.25)CX() = RX() m2X=112(3.26)Il processo`eevidentementestazionario4, manonergodico. Infatti lamediatemporaledellasingolarealizzazionevaleA, ed`equindi casualeenoncoincideconmX. Ci`otrovaconfermanelfattochelintegraledellautocovarianza `einnito.Esempio3.4.2. Unesempiounpo pi` userio, incui si hannodavveroinnitevariabili casuali,`equelloincui il processohasoloduevalori X(t)= 1macambiasegnoadogni eventodi Poisson. Tali eventisi susseguonoal ritmomediodi al secondo. Inaltreparole, lintervallodi tempotraduesuccessivicambiamenti di segno`eunavariabilecasualeesponenzialeconvaloremedio1/. Persimmetriasi vedefacilmente che il valore medio di X(t) `e nullo. Indicando con Kil numero di eventi diPoissontra t e t +(otrat +et,se< 0)sihapoiRX() = E[X(t)X(t +)] = 1 P_X(t +) = X(t)_1 P_X(t +) = X(t)_ == P(Kpari) P(Kdispari) = exp(2||)(3.27)(il calcolo`elasciatocomeesercizio). Levariabili casuali X(t) eX(t + ) sonofortementecorrelatese 1(intalecaso`emoltoprobabilechenonvi sianoeventi di Poissonequindi cheleduevariabilicasualiabbianolostessovalore),epraticamenteincorrelatese 1(leprobabilit` adiunnumeropariodisparidieventidiPoissonsonoquasiuguali). Ilprocessohamemoriapraticamentenita,lafunzionediautocovarianzahaintegralenitoesi halergodicit` adel valoremedio: conprobabilit` a1lerealizzazionihannovaloremediotemporalenullo, ugualeal valoremediodel processo. Si potrebbemostrarecheilprocesso `eergodicoinsensostretto.Lapotenzadel processoRX(0)`epari a1, qualunquesialintervallomediotraeventi 1/, masi pu` oosservarechequantopi` upiccolo `e1/tantopi` ustretta `elafunzionediautocorrelazione.Esempio 3.4.3. Si modichi il processoprecedente supponendoche adogni istante di Poisson X(t)assumaunvalorecasualeindipendentedatutti i precedenti, trattodaunaddpf(x)simmetricarispettoallozero. Il valoremediomXdi X(t)nondipendequindi dated`enullo. Setratet + nonvi sonoeventi levariabili casuali X(t)eX(t + )coincidono. Altrimenti sonoindipendenti eil valoremediodelprodotto `enullo. Lautocorrelazione `equindidatadaRX() = E[X(t)X(t +)] = E[X2]P(nessuneventotratet +) = 2X exp(||) (3.28)4nonsiconfondastazionarioconX(t)costante! stazionariet` asignicacheleddpsonoinvariantirispettoaunatraslazionedellassetemporaleS.Bellini 3.5. Processicasualigaussiani 87Anchequestoprocessohamemoriapraticamentenita,lafunzionediautocovarianzahaintegralenitoesihalergodicit` adelvaloremedio: conprobabilit` a1lerealizzazionihannovaloremediotemporalenullo,ugualealvaloremediodelprocesso. Sipotrebbemostrarecheilprocesso `eergodicoinsensostretto.Anche in questo processo (ma `e un fatto generale) la funzione di autocorrelazione `e tanto pi` u stretta quantopi` urapidisonoicambiamentidivaloredelprocesso.Questi primi esempi di processi nondel tuttobanali aiutanoacapirecheinunprocessocasualeserio, cio`e di qualche interesse pratico, non c`e un vasto insieme di funzioni casualipressateX(t)fracui lesperimentocasualesorteggia. Sonoinvecei meccanismi casualidel processochegeneranoinmodocasualeeapriori imprevedibilelafunzioneX(t)chevieneosservata.Esempio 3.4.4.Un esempio famosissimo di processo `e il rumore termico, dato dalla piccolatensione di rumore che `e possibile misurare a vuoto ai capi di un conduttore e che `e dovutaallagitazionetermicadeiportatoridicarica. Latensioneistantanea`elasovrapposizionedi unnumeroenormedi eetti chenasconodal movimento, del tuttoimprevedibile, adesempiodegli elettroni. Ogni brevetrattodi unarealizzazione`equindi diversodatuttiquelligi`avisti,eppurecisonopropriet`astatistichecomunicheconsentonoalteoremadellimitecentraledientrareinazione,eanoidifareprevisioni.La sovrapposizione di un numero enorme di contributi fa s` che la ddpdel processo sia gaus-siana, e che anche leddpcongiunte siano gaussiane. Il valore medio `e nullo, per simmetriadel movimentocaoticodegli elettroni. Il movimento`epoi cos` rapidochelautocorrela-zionedel processosi annullaper valori di piccolissimi, dellordinedi 1011 1010s.Il valoredi RX(0), cio`elapotenzadel processo, pu`oesserecalcolatoconconsiderazionitermodinamichetroppocomplesseperesserequiriportate5.3.5 Processi casuali gaussianiUnprocessosidicegaussianoseleddpdituttigliordinisonocongiuntamentegaussiane.Sonomoltofrequentiinnatura,neicasiincuilaquantit`aX(t)osservatasialasommadiunnumerosucientementegrandedi contributi indipendenti, comeavvieneadesempioperilrumoretermico.Per i processi gaussiani `efond