Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria...

33
Introduzione alla teoria dell’informazione sura dell’informazione dondanza difica di sorgente bustezza difica di canale codifica dell’informazione biologica Francesco Piva Dipartimento di Biochimica, Biologia e Gen Università Politecnica delle Marche [email protected]

Transcript of Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria...

Page 1: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Introduzione alla teoria dell’informazione

• misura dell’informazione• ridondanza• codifica di sorgente• robustezza• codifica di canale• decodifica dell’informazione biologica

Francesco PivaDipartimento di Biochimica, Biologia e GeneticaUniversità Politecnica delle [email protected]

Page 2: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Struttura di comunicazione attraverso un canale trasmissivo

Page 3: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Ci occupiamo della misura dell’informazione emessa da una sorgente

la sorgente è tanto più efficiente quanto più risulta imprevedibile da parte del destinatario l’informazione che sarà emessa

supponiamo che la sorgente di informazione sia un testo, se il destinatariogià conosce quel testo, l’informazione emessa dalla sorgente è nulla

se il destinatario non ha mai letto quel testo, la sorgente emette la massima informazione

se il destinatario non conosce il testo ma conosce in modo generico l’informazione che si aspetta, allora l’informazione risulterà minore di quella massima

con il termine linguaggio intendiamo una serie di regole su cui sorgenete e destinatario concordano per consentire il trasferimento di informazione dall’uno all’altro

Page 4: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

L’informazione contenuta in un messaggio ha l’effetto di cambiare lo stato di incertezza nei riguardi di una certa situazione. Dopo la ricezione del messaggio l’incertezza diminuisce o decade.

Più il messaggio toglie incertezzapiù questo ha valore

L’informazione è l’incertezza che si ha prima di ricevere il messaggio.

Immaginiamo che io stia aspettando di sapere se una persona (Pippo) è o meno nel suo ufficio. Immaginiamo che ci sia il 70% delle probabilità di trovarlo nel suo ufficio e il 30% di trovarlo in altre stanze. Se mi informano che è nel suo ufficio, ho eliminato la mia incertezza, ma già la mia incertezza era bassa perché mi sarei aspettato di trovarlo in ufficio. Quindi questa informazione non ha un valore molto alto.Se mi informano che non è nel suo ufficio, ho risolto una maggiore incertezza perché c’erano meno probabilità che questo accadesse, cioè era una situazione più inaspettata, quindi avevo un’incertezza maggiore. Questa informazione ha più valore perché mi ha tolto una maggiore incertezza

Page 5: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Altro esempio: supponiamo di essere ad un esame e dover dare la risposta ad un quesito barrando una casella. Supponiamo di non conoscere la risposta alla domanda. Se le caselle, cioè le possibili risposte sono due, ho maggiori probabilità di barrare la risposta esatta. Se le caselle fossero 10 ho minore probabilità di barrare quella esatta.

Se ci sono identiche probabilità di trovare Pippo nel suo ufficio, allora le

due informazioni hanno lo stesso valore.

Supponiamo che Pippo possa essere in 5 stanze diverse, e in ogni stanza con la stessa probabilità. Ho la probabilità del

20% che esso sia in una stanza. Un’informazione che risolve questo

stato di incertezza ha molto valore perché molte erano le possibilità.

Page 6: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Da questo momento consideriamo l’equiprobabilità che si verifichi un certo stato tra N aspettatiConsideriamo che l’informazione elementare venga portata da un simbolo che può assumere due soli stati: 0 e 1Una sequenza lunga M permette di discriminare (o risolvere) N stati

N=2M

L’incertezza è tanto maggiorequanto maggiore è N

0000000100100011010001010110011110001001101010111100110111101111

01

00011011

000001010011100101110111

00000000010001000011001000010100110……..……..

000000000001000010000011000100000101000110………………

0000000000000100000100000011000010000001010000110..………………..

Page 7: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

La quantità di informazione portata da un solo simbolo a N stati, o da una sequenza che può assumere N forme diverse , è

i=log2N

Nel caso N=2, cioè un simbolo a due stati, che mi permette di discriminare tra due eventi

i=log22 = 1 bit

La quantità di informazione portata da una sequenza di M simboli binari è

i=log2(2M) = M log22 = log2N = M bit

Page 8: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Se tutti gli N stati di un simbolo o le N forme di una sequenza, possono giungere con la stessa probabilità PN = 1 / P es. 2 = 1 / 0.5la formula precedente esprime N in funzione della probabilità diventa

i = log2N = log2(1/P) = - log2(P)(quantità di informazione di un simbolo in cui ogni stato ha probabilità P di verificarsi)

Se gli eventi o stati non si verificano con la stessa probabilità… ad esempio p(0) = 0.1 p(1) = 0.9

i0 = - log2(0.1) = 3.3 biti1 = - log2(0.9) = 0.15 bit

i simboli più rari portano più informazione

Page 9: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Fin’ora abbiamo visto l’informazione portata da un preciso simbolo però in una conversazione, in una lettura, in una sequenza di dati di computer abbiamo a che fare con una lunga sequenza di simboli. Qual è l’informazione media per simbolo portata da una sequenza di simboli?

imedio = P0 * i0 + P1 * i1 [bit per simbolo]

imedio = P0 * -log2(P0) + P1 * -log2(P1)

Nel caso in cui 0 e 1 siano equiprobabiliimedio = 0.5 * 1 + 0.5 * 1 = 1 bit

Nel caso di non equiprobabilità degli statiimedio = 0.1 * 3.3 + 0.9 * 0.15 = 0.46 bit

Una sorgente che emette simboli i cui stati sono equiprobabili ha la massima efficienza informativa, cioè ciascun simbolo ha il massimo contenuto informativo o … a parità di informazione trasmessa impiega meno simboli

Page 10: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

La quantità imedio = P0 * i0 + P1 * i1 è detta anche ENTROPIA (H) della sorgente di informazione

Si nota che la massima entropia si ha per valori di P = 0.5 cioè per l’equiprobabilità degli stati 0 e 1.

A questo punto si verifica il trasferimento di informazione con la massima efficienza

Page 11: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Esempio:Estrazione di una sequenza consenso da dati sperimentali di binding

Page 12: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Frequenze delle singole lettere nella lingua italiana

0,00

0,03

0,06

0,09

0,12

0,15

a b c d e f g h i j k l m n o p q r s t u v w x y z _

Page 13: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Frequenze delle singole lettere nella lingua inglese

0,00

0,03

0,06

0,09

0,12

0,15

0,18

a b c d e f g h i j k l m n o p q r s t u v w x y z _

Page 14: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Frequenze delle singole lettere

0,00

0,03

0,06

0,09

0,12

0,15

0,18

a b c d e f g h i j k l m n o p q r s t u v w x y z _

italiano

inglese

Page 15: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

RIDONDANZA

Non equiprobabilità correlazione

La ridondanza indica quanto diminuisce la capacità di una sorgente di inviare informazioni, a causa della non equiprobabilità e della correlazione tra i simboli.

La correlazione è il legame tra i simboli emessi da una sorgente, è come dire che osservando la sequenza appena uscita, si possono trarre indicazioni sui simboli che stanno per uscire.

Esempio: le parole che usiamo per comunicare hanno regolarità sia interne (tra le lettere) che esterne (articolo con il genere del sostantivo).Per questo motivo, se stiamo leggendo un testo e in particolare una parola, di solito dalle prime lettere si intuisce già la parola intera.

Page 16: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

albergoalberoalcoolalialimentoallarmeallegriaalloraalluvionealveolo

aln…alr…alrr…

E’ la tecnica usata dai software per scrivere messaggi sms sui telefonini

A causa delle regole di

semantica che introducono

correlazione, ci sono parole

proibite.

a al alb albe

albaalbergoalberoalbume

albergoalbero

abbraccioaereoalbergoalberoalcoolalialimentoallarmeallegriaalloraalluvionealveoloancaassegno

Page 17: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

frequenze di coppie di lettere in italiano

0,00

0,01

0,01

0,02

0,02

0,03

0,03

0,04

aa ak au bd bn bx cg cq c_ dj dt ec em ew ff fp fz gi gs hb hl hv ie io iy jh jr ka kk ku ld ln lx mg mq m_ nj nt oc om ow pf pp pz qi qs rb rl rv se so sy th tr ua uk uu vd vn vx wg wq w_ xj xt yc ym yw zf zp zz _i _s

Page 18: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Vantaggi della correlazione tra caratteri:

Irrobustiscono l’informazione quindi permettono di comprendere la parola anche se ci sfuggono alcuni caratteri, come nel caso di comunicazione disturbata da rumori di fondo

Svantaggi

Limitano il numero di parole diverse che possiamo comporre quindi abbiamo un linguaggio meno ricco di parole. Posso comporre la parola ‘almnqq’ ma questa non è una sequenza di simboli permessa dalle regole della semantica, cioè non c’è la giusta correlazione tra i caratteri.

Page 19: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Codifica di sorgenteImmaginiamo di dover trasmettere uno fra quattro possibili stati, possiamo utilizzare solo simboli binari

A 00B 01C 10D 11

Questa operazione che permette di associare dei simboli agli stati si chiama codifica che richiama l’idea di associare un codiceSe i 4 stati sono equiprobabili la trasmissione ha già la massima efficienza

A 00 P=0.25B 01 P=0.125C 10 P=0.5D 11 P=0.125

Supponiamo ora che sia più probabile che dobbiamo trasmettere lo stato C e meno probabile di dover trasmettere B e D

BCDACACCBACACCDC 01 10 11 00 10 00 10 10 01 00 10 00 10 10 11 10

i = 2 * 0.25 + 2 * 0.125 + 2 * 0,5 + 2 * 0.125 = 2 bitPer trasmettere uno stato uso in media due bit, per questa sequenza ne ho usati 32

Page 20: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

A 01 P=0.25B 001 P=0.125C 1 P=0.5D 000 P=0.125

Supponiamo ora di codificare in maniera diversa gli stati. Precisamente codifichiamo con sequenze più corte i simboli più probabili

BCDACACCBACACCDC 001 1 000 01 1 01 1 1 001 01 1 01 1 1 000 1

i = 2 * 0.25 + 3 * 0.125 + 1 * 0,5 + 3 * 0.125 = 1.75 bitPer trasmettere uno stato uso in media 1.75 bit quindi trasmetto la stessa sequenza di prima ma con meno simboli, infatti ne ho usati 28.

Ho attuato una compressione dell’informazione. Il primo ad usare questa tecnica fu Morse.

I programmi di compressione tipo Winzip, Arj… analizzano la sequenza dei bit del file da comprimere, ricodificano il file associando sequenze di minor lunghezza a quelle più ricorrenti(codifica di Huffman)

Page 21: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Se il file da comprimere ha molta ridondanza, cioè correlazione e non equiprobabilità dei simboli, allora questo potrà essere molto compresso.Questo tipo di compressione si basa sull’eliminazione delle ridondanze senza perdita di informazione, ovvero il file compresso può essere riportato alla forma originale senza che il messaggio sia degradato.

Un altro tipo di compressione è quella con perdita di informazione. Questa oltre a sfruttare il principio precedente, elimina quelle informazioni ritenute poco importanti per la comprensione globale del messaggio.E’ il caso di compressioni di immagini in formato jpg o gif, queste comprimono molto ma provocano una certa perdita della qualità dell’immagine. La perdita è irreversibile perché si è scelto di memorizzare solo una certa parte delle informazioni. (es MP3, MPEG…)

Uno svantaggio della compressione: un errore o un’incomprensione di un simbolo rischiano di compromettere la comprensione dell’intero messaggio.

Esempio: se ci si perde qualche parola del discorso di una persona ridondante, quasi sicuramente si capirà il significato del messaggio.

Page 22: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Il rumore

Page 23: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di
Page 24: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Modello di un canale di trasmissione

0

1

0

1

P00

P01

P11

P10

Simbolotrasmesso

Simboloricevuto

P01, P10: probabilità di errore

Page 25: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Distanza

01101000010101110110110100011010111011

Per determinare la distanza tra due sequenze si deve allinearle e colonna per colonna contare il numero di simboli differenti.In questo caso la distanza è 1 ovvero le due sequenze differiscono per un solo simbolo.

01

10

00

11

Le sequenze collegate dalle frecce distano fra loro 1Le sequenze sulle diagonali distano 2

Concetto di distanza evoluzionistica e alberi filogenetici: posso dire che 00 e 01 sono imparentati direttamente, 11 è imparentato sia con 01 che con 10 ma non so da chi derivi.

Page 26: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

000

100

010

001

110

101

011

111

000001010011100101110111

Abbiamo disposto tutte le sequenze che si possono ottenere con tre bit, su un cubo in modo che le sequenze collegate direttamente avessero distanza 1.Si nota che per andare da 000 a 111 si devono verificare tre mutazioni ma si possono seguire molti percorsi diversi.

Distanza come robustezza: è più facile confondere 000 e 010 perché distano solo 1, una mutazione può far passare dall’uno all’altro,è più difficile confondere 000 e 111 perché ci vogliono tre mutazioni.Analogamente in un discorso è più probabile confondere ‘albero’ e ‘alberi’ piuttosto che ‘albero’ e ‘alluvione’.

Page 27: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Ancora sulla robustezzaImmaginiamo di dover trasmettere uno fra quattro possibili stati, possiamo utilizzare solo simboli binari

A 00B 01C 10D 11

Questa operazione che permette di associare dei simboli agli stati si chiama codifica che richiama l’idea di associare un codice

sorgente destinatario

disturbo

01 11

Se avviene un errore durante la trasmissione, il destinatario riceve un messaggio sbagliato e non ha modo di accorgersi che c’è stato un errore

Page 28: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

A 000B 011C 101D 110

sorgente destinatario

disturbo

011 001

In questo caso il destinatario riceve una sequenza non permessa perché 001 non corrisponde a nulla di valido, quindi si accorge che c’è stato un errore di trasmissione.

Ho ottenuto questo risultato codificando i 4 stati con sequenze a distanza 2 anziché 1, cioè ho distanziato gli stati in modo che un errore singolo non mi portasse direttamente a uno stato permesso

101 001 000 010 110

AC Dnon permesso non permesso

Page 29: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

A 0000B 1101C 0111D 1110

0011 0001 0000 0010 0110

A

C D

non permesso non permesso

0111 1110

non permessonon permesso

Fra gli stati A,C e A,D c’è distanza 3Se trasmetto 0000 e al destinatario arriva 0001, quest’ultimo capisce che c’è stato un errore perché 0001è uno stato non permesso. Inoltre può anche ipotizzare che era stato trasmesso A perché è lo stato più vicino al simbolo ricevuto. Nel caso di canali non fortemente disturbati ovvero dove ogni 4 simboli si può avere al massimo un errore, il destinatario è in grado di correggere l’errore.

Page 30: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

001 000 010

AA AC D

Altro modo di aumentare la robustezza di una codifica:Definire delle parole sinonime

Codifico A con 000, ogni errore singolo produce delle parole a distanza 1 dala parola 000Codifico A anche con 001, 010, 100. In questo modo tutte le parole a distanza 1 da 000sono ancora dei sinonimi di A

100 A

011101

Page 31: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Questa tecnica si chiama codifica di canale

Consiste nel codificare gli stati con più simboli del necessario così da poter distanziare le parole.In questo modo ho una trasmissione più robusta, cioè più immune agli errori.Pago questa robustezza con una diminuzione di efficienza perché trasmetto molti più simboli a parità di informazione.

Dal punto di vista dei simboli impiegati per trasmettere (nello spazio) o memorizzare (nel tempo) un messaggio, la codifica di sorgente ha l’effetto contrario della codifica di canale. La prima comprime, la seconda espande.

Page 32: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Sequenze di DNA interpretate secondo la Teoria dell’Informazione

il codice genetico è degenere, che cosa significa in termini numerici?

. . . Ala Val Arg . . .

GCA C G T

GTA C G T

CGA C G TAGA G

GCAGTACGAGCAGTACGCGCAGTACGGGCAGTACGTGCAGTAAGAGCAGTAAGGGCAGTCCGAGCAGTCCGCGCAGTCCGGGCAGTCCGTGCAGTCAGAGCAGTCAGGGCAGTGCGAGCAGTGCGCGCAGTGCGGGCAGTGCGTGCAGTGAGAGCAGTGAGGGCAGTTCGAGCAGTTCGCGCAGTTCGGGCAGTTCGTGCAGTTAGAGCAGTTAGG

GCCGTACGAGCCGTACGCGCCGTACGGGCCGTACGTGCCGTAAGAGCCGTAAGGGCCGTCCGAGCCGTCCGCGCCGTCCGGGCCGTCCGTGCCGTCAGAGCCGTCAGGGCCGTGCGAGCCGTGCGCGCCGTGCGGGCCGTGCGTGCCGTGAGAGCCGTGAGGGCCGTTCGAGCCGTTCGCGCCGTTCGGGCCGTTCGTGCCGTTAGAGCCGTTAGG

GCGGTACGAGCGGTACGCGCGGTACGGGCGGTACGTGCGGTAAGAGCGGTAAGGGCGGTCCGAGCGGTCCGCGCGGTCCGGGCGGTCCGTGCGGTCAGAGCGGTCAGGGCGGTGCGAGCGGTGCGCGCGGTGCGGGCGGTGCGTGCGGTGAGAGCGGTGAGGGCGGTTCGAGCGGTTCGCGCGGTTCGGGCGGTTCGTGCGGTTAGAGCGGTTAGG

GCTGTACGAGCTGTACGCGCTGTACGGGCTGTACGTGCTGTAAGAGCTGTAAGGGCTGTCCGAGCTGTCCGCGCTGTCCGGGCTGTCCGTGCTGTCAGAGCTGTCAGGGCTGTGCGAGCTGTGCGCGCTGTGCGGGCTGTGCGTGCTGTGAGAGCTGTGAGGGCTGTTCGAGCTGTTCGCGCTGTTCGGGCTGTTCGTGCTGTTAGAGCTGTTAGG

4 * 4 * 6 = 96Combinazionio parole sinonime

Page 33: Presentazione di PowerPoint - · PPT file · Web viewIntroduzione alla teoria dell’informazione misura dell’informazione ridondanza codifica di sorgente robustezza codifica di

Ma tutti questi sinonimi costituiscono veramente la robustezza?

Si, dal punto di vista del codice geneticoNo, in assoluto, cioè per il fenotipo.

Esistono altri linguaggi che specificano alcune tra le parole sinonimeal fine di trasmettere informazioni per:• lo splicing• il ripiegamento dell’RNA• il tempo di vita dell’RNA• il trasporto dell’RNA• la stabilità del DNA (organizzazione in cromatina)• …?

Messaggio: anche le mutazioni neutre vanno considerate come potenzialmente patogene