Introduzione alla teoria dellinformazione misura dellinformazione ridondanza codifica di sorgente...

Click here to load reader

download Introduzione alla teoria dellinformazione misura dellinformazione ridondanza codifica di sorgente robustezza codifica di canale decodifica dellinformazione

of 33

  • date post

    01-May-2015
  • Category

    Documents

  • view

    215
  • download

    1

Embed Size (px)

Transcript of Introduzione alla teoria dellinformazione misura dellinformazione ridondanza codifica di sorgente...

  • Slide 1
  • Introduzione alla teoria dellinformazione misura dellinformazione ridondanza codifica di sorgente robustezza codifica di canale decodifica dellinformazione biologica Francesco Piva Istituto di Biologia e Genetica Universit Politecnica delle Marche f.piva@univpm.it
  • Slide 2
  • Struttura di comunicazione attraverso un canale trasmissivo
  • Slide 3
  • Ci occupiamo della misura dellinformazione emessa da una sorgente la sorgente tanto pi efficiente quanto pi risulta imprevedibile da parte del destinatario linformazione che sar emessa supponiamo che la sorgente di informazione sia un testo, se il destinatario gi conosce quel testo, linformazione emessa dalla sorgente nulla se il destinatario non ha mai letto quel testo, la sorgente emette la massima informazione se il destinatario non conosce il testo ma conosce in modo generico linformazione che si aspetta, allora linformazione risulter minore di quella massima con il termine linguaggio intendiamo una serie di regole su cui sorgenete e destinatario concordano per consentire il trasferimento di informazione dalluno allaltro
  • Slide 4
  • Linformazione contenuta in un messaggio ha leffetto di cambiare lo stato di incertezza nei riguardi di una certa situazione. Dopo la ricezione del messaggio lincertezza diminuisce o decade. Pi il messaggio toglie incertezza pi questo ha valore Linformazione lincertezza che si ha prima di ricevere il messaggio. Immaginiamo che io stia aspettando di sapere se una persona (Pippo) o meno nel suo ufficio. Immaginiamo che ci sia il 70% delle probabilit di trovarlo nel suo ufficio e il 30% di trovarlo in altre stanze. Se mi informano che nel suo ufficio, ho eliminato la mia incertezza, ma gi la mia incertezza era bassa perch mi sarei aspettato di trovarlo in ufficio. Quindi questa informazione non ha un valore molto alto. Se mi informano che non nel suo ufficio, ho risolto una maggiore incertezza perch cerano meno probabilit che questo accadesse, cio era una situazione pi inaspettata, quindi avevo unincertezza maggiore. Questa informazione ha pi valore perch mi ha tolto una maggiore incertezza
  • Slide 5
  • Altro esempio: supponiamo di essere ad un esame e dover dare la risposta ad un quesito barrando una casella. Supponiamo di non conoscere la risposta alla domanda. Se le caselle, cio le possibili risposte sono due, ho maggiori probabilit di barrare la risposta esatta. Se le caselle fossero 10 ho minore probabilit di barrare quella esatta. Se ho identiche probabilit di trovare Pippo nel suo ufficio, allora le due informazioni hanno lo stesso valore. Supponiamo che Pippo possa essere in 5 stanze diverse, e in ogni stanza con la stessa probabilit. Ho la probabilit del 20% che esso sia in una stanza. Uninformazione che mi risolve questo stato di incertezza ha molto valore perch molte erano le possibilit.
  • Slide 6
  • Da questo momento consideriamo lequiprobabilit che si verifichi un certo stato tra N aspettati Consideriamo che linformazione elementare viene portata da un simbolo che pu assumere due soli stati: 0 e 1 N=2 M Quindi la formula rappresenta il numero di stati che posso risolvere (discriminare) con una sequenza di M simboli di due stati Esempi di parole Lincertezza tanto maggiore quanto maggiore N Allarrivo del messaggio ho uninformazione tanto maggiore quanto pi alta era lincertezza, cio quanto maggiore era N
  • Slide 7
  • La quantit di informazione portata da un solo simbolo i=log 2 N N=2 perch un simbolo a due stati mi permette di discriminare tra due eventi i=log 2 2 = 1 bit La quantit di informazione portata da una sequenza di M simboli binari i=log 2 (2 M ) = M log 2 2 = log 2 N = M bit
  • Slide 8
  • Se tutti gli N eventi che possono accadere (o gli N simboli che possono giungere) sono equiprobabili, poich N = 1/P, possiamo scrivere la formula precedente in funzione della probabilit. La quantit di informazione portata da un simbolo i = log 2 N = log 2 (1/P) = - log 2 (P) Se gli eventi o i simboli non si verificano con la stessa probabilit, ad esempio p(0) = 0.1 p(1) = 0.9 i 0 = - log 2 (0.1) = 3.3 bit i 1 = - log 2 (0.9) = 0.15 bit i simboli pi rari portano pi informazione
  • Slide 9
  • Finora abbiamo visto linformazione portata da un preciso simbolo per in una conversazione, in una lettura, in una sequenza di dati di computer abbiamo a che fare con una lunga sequenza di simboli. Qual linformazione media per simbolo portata da una sequenza di simboli? i medio = P 0 * i 0 + P 1 * i 1 [bit per simbolo] Nel caso in cui 0 e 1 siano equiprobabili i medio = 0.5 * 1 + 0.5 * 1 = 1 bit Nel caso della non equiprobabilit precedente i medio = 0.1 * 3.3 + 0.9 * 0.15 = 0.46 bit Quindi una sorgente che emette simboli in modo equiprobabile ha la maggior efficienza informativa, cio ciascun simbolo ha il massimo contenuto informativo o a parit di informazione impiega meno simboli
  • Slide 10
  • La quantit i medio = P 0 * i 0 + P 1 * i 1 detta anche ENTROPIA (H) della sorgente di informazione Si nota che la massima entropia si ha per valori di P = 0.5 cio per lequiprobabilit degli stati 0 e 1. A questo punto si verifica il massimo trasferimento di informazione
  • Slide 11
  • Estrazione di una sequenza consenso da dati sperimentali
  • Slide 12
  • Slide 13
  • Slide 14
  • Slide 15
  • RIDONDANZA Non equiprobabilitcorrelazione La ridondanza indica quanto diminuisce la capacit di una sorgente di inviare informazioni, a causa della non equiprobabilit e della correlazione tra i simboli. La correlazione il legame tra i simboli che escono da una sorgente, come dire che osservando la sequenza appena uscita, si possono trarre indicazioni sui simboli che stanno per uscire. Esempio: se stiamo leggendo un testo e in particolare una parola, di solito dalle prime lettere si intuisce gi la parola intera. Questo perch c una correlazione tra le lettere di una parola. Le lettere pi importanti alla comprensione sono le prime, queste portano anche pi informazione.
  • Slide 16
  • albergo albero alcool ali alimento allarme allegria allora alluvione alveolo alm aln alr als E la tecnica usata dai software per scrivere messaggi sms sui telefonini Parole proibite a causa delle regole di semantica che introducono correlazione
  • Slide 17
  • Slide 18
  • Vantaggi della correlazione tra caratteri: Irrobustiscono linformazione quindi permettono di comprendere la parola anche se ci sfuggono alcuni caratteri, come nel caso di comunicazione disturbata da rumori di fondo Svantaggi Limitano il numero di parole diverse che possiamo comporre quindi abbiamo un linguaggio meno ricco di parole. Posso comporre la parola almnqq ma questa non una sequenza di simboli permessa dalle regole della semantica, cio non c la giusta correlazione tra i caratteri. Altri esempi di correlazione sono larticolo con il nome, il soggetto con il verbo.
  • Slide 19
  • Codifica di sorgente Immaginiamo di dover trasmettere uno fra quattro possibili stati, possiamo utilizzare solo simboli binari A 00 B 01 C 10 D 11 Questa operazione che permette di associare dei simboli agli stati si chiama codifica che richiama lidea di associare un codice Se i 4 stati sono equiprobabili la trasmissione ha gi la massima efficienza A 00 P=0.25 B 01 P=0.125 C 10 P=0.5 D 11 P=0.125 Supponiamo ora che sia pi probabile che dobbiamo trasmettere lo stato C e meno probabile di dover trasmettere B e D BCDACACCBACACCDC 01 10 11 00 10 00 10 10 01 00 10 00 10 10 11 10 i = 2 * 0.25 + 2 * 0.125 + 2 * 0,5 + 2 * 0.125 = 2 bit Per trasmettere uno stato uso in media due bit, per questa sequenza ne ho usati 32
  • Slide 20
  • A 01 P=0.25 B 001 P=0.125 C 1 P=0.5 D 000 P=0.125 Supponiamo ora di codificare in maniera diversa gli stati. Precisamente codifichiamo con sequenze pi corte i simboli pi probabili BCDACACCBACACCDC 001 1 000 01 1 01 1 1 001 01 1 01 1 1 000 1 i = 2 * 0.25 + 3 * 0.125 + 1 * 0,5 + 3 * 0.125 = 1.75 bit Per trasmettere uno stato uso in media 1.75 bit quindi trasmetto la stessa sequenza di prima ma con meno simboli, infatti ne ho usati 28. Ho attuato una compressione dellinformazione. Il primo ad usare questa tecnica fu Morse. I programmi di compressione tipo Winzip, Arj analizzano la sequenza dei bit del file da comprimere, ricodificano il file associando sequenze di minor lunghezza a quelle pi ricorrenti (codifica di Huffman)
  • Slide 21
  • Se il file da comprimere ha molta ridondanza, cio correlazione e non equiprobabilit dei simboli, allora questo si comprimer molto. Questo tipo di compressione si basa sulleliminazione delle ridondanze senza perdita di informazioni, vale a dire che il file compresso pu essere riportato alla forma originale senza che il messaggio si sia degradato. Un altro tipo di compressione quella con perdita di informazione. Questa oltre a sfruttare il principio precedente, elimina quelle informazioni ritenute poco importanti per la comprensione globale del messaggio. E il caso di compressioni di immagini in formato jpg o gif, queste comprimono molto ma provocano una certa perdita della qualit dellimmagine. La perdita irreversibile perch si scelto di memorizzare solo una certa parte delle informazioni. Uno svantaggio della compressione: un errore o unincomprensione di un simbolo rischiano di compromettere la comprensione dellintero messaggio. Esempio: se ci si perde qualche parola del discorso di una persona ridondante, quasi sicuramente si capir il significato del messaggio.
  • Slide 22