Terremoti, previsioni e la vicenda dell’Aquila Giovanni ... e so... · della rottura della faglia...

16
1 Terremoti, previsioni e la vicenda dell’Aquila Giovanni Vittorio Pallottino 13/2/2013 1.Terremoti 2.Previsioni deterministiche e precursori 3.Previsioni probabilistiche 4. La vicenda del terremoto dell’Aquila del 2009 5. Dalle previsioni alle decisioni: le previsioni operative 0. Introduzione L’attenzione della società nei confronti dei terremoti è strettamente legata al gran numero di vittime (in Italia circa 150mila dall’Unità ad oggi) ed agli ingenti danni agli edifici e alle infrastrutture che questi eventi possono causare. Da ciò discende l’importanza di disporre di qualche tipo di previsione circa l’occorrenza dei sismi e anche di provvedere misure atte a mitigarne gli effetti. Precisando tuttavia subito che allo stato attuale delle conoscenze non è possibile prevedere con certezza quando, dove e con quale intensità si verificherà un terremoto, ed è invece possibile disporre a tale riguardo di informazioni di natura probabilistica. Nel seguito discuteremo lo stato dell’arte nel campo delle previsioni dei terremoti, considerando anche il problema della mitigazione dei loro effetti e quello della corretta comunicazione al pubblico, con particolare riferimento al caso giudiziario seguito al terremoto dell’Aquila dell’aprile 2009. 1. I terremoti I danni più rilevanti sono causati dai terremoti tettonici, che hanno origine nei lentissimi movimenti relativi delle placche terrestri che provocano la deformazione delle rocce nelle regioni di confine dove l’attrito blocca localmente questi movimenti. I terremoti si verificano quando l’energia elastica accumulata lentamente nel corso di anni o di secoli si libera bruscamente. Parte di essa viene irradiata nella forma di onde sismiche che si propagano attorno, scuotono il suolo in superficie e, quando prodotte nei fondali marini, possono provocare maremoti (tsunami). Ciò avviene soprattutto, ma non esclusivamente, nelle regioni di confine fra le placche. Ricordiamo che il punto dove avviene la frattura prende il nome di ipocentro mentre si chiama epicentro il punto della superficie terrestre sulla verticale dell’ipocentro, sebbene oggi queste nozioni siano considerate soltanto indicative dato che l’energia rilasciata può provenire da volumi di roccia molto estesi. Trascuriamo invece i terremoti di origine vulcanica, che sono a carattere locale, in quanto limitati alle adiacenze dei vulcani, meno frequenti e generalmente meno intensi, sebbene in qualche occasione risultino catastrofici, come nel caso dell’eruzione esplosiva del Krakatoa nel 1883. Fattore essenziale per lo studio della sismicità delle diverse regioni terrestri, anche ai fini di valutare il rischio sismico e di formulare qualche tipo di previsione, è la conoscenza dell’attività sismica nel passato. Informazioni sul passato più lontano sono fornite dagli studi di paleosismologia, basati sulla geologia. Da tempi più recenti, nei paesi di più antica civilizzazione, provengono poi le informazioni sui fenomeni sismici che si trovano in cronache e altri documenti scritti; di questi l’Italia è particolarmente ricca. Da quando poi si utilizzano apposite strumentazioni di misura, cioè sostanzialmente dall’inizio del secolo scorso, queste forniscono informazioni di natura quantitativa, sempre più accurate e dettagliate con il progredire nel tempo delle tecnologie impiegate negli apparati di misura. I dati sulla sismicità delle diverse regioni sono raccolti nei cataloghi sismici (mondiali, nazionali e regionali), che forniscono i tempi di occorrenza, le intensità, gli epicentri e gli ipocentri dei terremoti del passato, assieme ad altre informazioni. I cataloghi italiani sono compilati a cura dell’INGV (Istituto Nazionale di Geofisica e Vulcanologia) e sono accessibili dal sito Web dell’Istituto.

Transcript of Terremoti, previsioni e la vicenda dell’Aquila Giovanni ... e so... · della rottura della faglia...

1

Terremoti, previsioni e la vicenda dell’Aquila

Giovanni Vittorio Pallottino 13/2/2013

1.Terremoti 2.Previsioni deterministiche e precursori 3.Previsioni probabilistiche 4. La

vicenda del terremoto dell’Aquila del 2009 5. Dalle previsioni alle decisioni: le previsioni

operative

0. Introduzione

L’attenzione della società nei confronti dei terremoti è strettamente legata al gran numero di vittime

(in Italia circa 150mila dall’Unità ad oggi) ed agli ingenti danni agli edifici e alle infrastrutture che

questi eventi possono causare. Da ciò discende l’importanza di disporre di qualche tipo di

previsione circa l’occorrenza dei sismi e anche di provvedere misure atte a mitigarne gli effetti.

Precisando tuttavia subito che allo stato attuale delle conoscenze non è possibile prevedere con

certezza quando, dove e con quale intensità si verificherà un terremoto, ed è invece possibile disporre

a tale riguardo di informazioni di natura probabilistica.

Nel seguito discuteremo lo stato dell’arte nel campo delle previsioni dei terremoti,

considerando anche il problema della mitigazione dei loro effetti e quello della corretta

comunicazione al pubblico, con particolare riferimento al caso giudiziario seguito al terremoto

dell’Aquila dell’aprile 2009.

1. I terremoti

I danni più rilevanti sono causati dai terremoti tettonici, che hanno origine nei lentissimi movimenti

relativi delle placche terrestri che provocano la deformazione delle rocce nelle regioni di confine

dove l’attrito blocca localmente questi movimenti. I terremoti si verificano quando l’energia elastica

accumulata lentamente nel corso di anni o di secoli si libera bruscamente. Parte di essa viene

irradiata nella forma di onde sismiche che si propagano attorno, scuotono il suolo in superficie e,

quando prodotte nei fondali marini, possono provocare maremoti (tsunami). Ciò avviene

soprattutto, ma non esclusivamente, nelle regioni di confine fra le placche. Ricordiamo che il punto

dove avviene la frattura prende il nome di ipocentro mentre si chiama epicentro il punto della

superficie terrestre sulla verticale dell’ipocentro, sebbene oggi queste nozioni siano considerate

soltanto indicative dato che l’energia rilasciata può provenire da volumi di roccia molto estesi.

Trascuriamo invece i terremoti di origine vulcanica, che sono a carattere locale, in quanto

limitati alle adiacenze dei vulcani, meno frequenti e generalmente meno intensi, sebbene in qualche

occasione risultino catastrofici, come nel caso dell’eruzione esplosiva del Krakatoa nel 1883.

Fattore essenziale per lo studio della sismicità delle diverse regioni terrestri, anche ai fini di

valutare il rischio sismico e di formulare qualche tipo di previsione, è la conoscenza dell’attività

sismica nel passato. Informazioni sul passato più lontano sono fornite dagli studi di paleosismologia,

basati sulla geologia. Da tempi più recenti, nei paesi di più antica civilizzazione, provengono poi le

informazioni sui fenomeni sismici che si trovano in cronache e altri documenti scritti; di questi

l’Italia è particolarmente ricca. Da quando poi si utilizzano apposite strumentazioni di misura, cioè

sostanzialmente dall’inizio del secolo scorso, queste forniscono informazioni di natura quantitativa,

sempre più accurate e dettagliate con il progredire nel tempo delle tecnologie impiegate negli

apparati di misura.

I dati sulla sismicità delle diverse regioni sono raccolti nei cataloghi sismici (mondiali,

nazionali e regionali), che forniscono i tempi di occorrenza, le intensità, gli epicentri e gli ipocentri

dei terremoti del passato, assieme ad altre informazioni. I cataloghi italiani sono compilati a cura

dell’INGV (Istituto Nazionale di Geofisica e Vulcanologia) e sono accessibili dal sito Web

dell’Istituto.

2

Un punto assai importante riguarda la valutazione dei danni, alle persone e alle cose, che

possono essere prodotti dai terremoti che hanno qualche probabilità di verificarsi in una data regione,

cioè il rischio sismico. Questa valutazione dipende essenzialmente dalla pericolosità sismica della

regione e dalla sua vulnerabilità, che dipende a sua volta da quanto la zona sia abitata e da come

sono costruiti gli edifici e le infrastrutture, cioè dalla loro capacità di resistere a un sisma. Si capisce

allora che i danni prevedibili in una zona molto sismica ma poco abitata sono assai inferiori di quelli

di una zona a bassa pericolosità sismica, ma molto abitata e con edifici vulnerabili perché costruiti

male. Ne consegue che, a livello mondiale, il rischio sismico è destinato ad aumentare nel futuro a

seguito della forte crescita dei grandi agglomerati urbani.

La caratterizzazione dei terremoti, inizialmente, è stata basata sulla valutazione dei loro

effetti, utilizzando in particolare la scala Mercalli, introdotta nel 1882 dal sismologo Giuseppe

Mercalli e successivamente modificata da altri studiosi, i cui 12 gradi si estendono dai sismi registrati

dagli strumenti ma impercettibili da parte delle persone (I grado) fino a quelli definiti apocalittici nei

quali si ha la totale distruzione di ogni manufatto (XII grado). Questa scala ha il vantaggio di poter

essere utilizzata anche in assenza di strumenti, ma presenta evidenti inconvenienti per la sua natura

empirica, qualitativa e soggettiva, anche considerando che terremoti della stessa intensità hanno

effetti assai diversi quando avvengono in una zona desertica dove nessuno può avvertirli oppure in

un centro abitato dove possono provocare danni e vittime.

Nel 1935 il sismologo americano Charles Richter suggerì di ricondurre la caratterizzazione

dell’intensità dei terremoti alle osservazioni strumentali, introducendo, in collaborazione con Beno

Gutenberg, la cosiddetta scala Richter. Questa è una scala di magnitudo, cioè logaritmica come è

opportuno data la grande estensione della gamma dinamica dei fenomeni sismici, la cui scelta trasse

ispirazione dalla scala di magnitudo usata in astronomia per rappresentare la luminosità apparente dei

corpi celesti. La magnitudo Richter, chiamata anche magnitudo locale e indicata generalmente con il

simbolo ML, è data dal logaritmo in base 10 del rapporto fra l’ampiezza massima delle onde

sismiche, misurate da un particolare sismografo (sismografo a torsione di Wood-Anderson) situato a

100 km dall’epicentro, e un livello di riferimento pari a 1 micron.

La conoscenza della magnitudo permette di valutare l’energia rilasciata da un terremoto, dalla

quale dipende il suo potere distruttivo. Questa energia è direttamente proporzionale all’ampiezza

elevata a 3/2. E quindi a un aumento di un grado della magnitudo locale, che rappresenta un aumento

dell’ampiezza di un fattore 10, corrisponde un aumento dell’energia di un fattore 103/2

= 31,63;

all’aumento di due gradi, una energia 1000 volte maggiore. Per fissare le idee, diciamo che un

terremoto di magnitudo 6 libera la stessa quantità di energia dell’esplosione di mille tonnellate di

tritolo (1 kiloton).

Ma la scala di magnitudo più spesso usata oggi, fra le numerose che sono state proposte, è

quella basata sul cosiddetto momento sismico, che esprime il lavoro meccanico svolto nel corso

della rottura della faglia che origina il terremoto, e che risale agli anni ’70 del secolo scorso. Questo

lavoro meccanico, indicato di solito con il simbolo Mo, è dato dal prodotto delle seguenti tre

grandezze: l’estensione (l’area) della faglia, l’entità media dello scorrimento e il modulo di taglio

delle rocce. La magnitudo del momento sismico, indicata con il simbolo MW, è data dalla formula:

MW = (3/2) log10 Mo – 6, dove le costanti sono state scelte in modo che questa scala corrisponda

approssimativamente alla scala Richter. Per quanto detto, il momento sismico Mo è espresso in unità

di joule, la magnitudo del momento sismico MW è una grandezza adimensionale.

Un’altra grandezza caratteristica dei terremoti è l’accelerazione del suolo, dalla quale più

direttamente dipendono i danni agli edifici. L’accelerazione, a parità di magnitudo, è tanto maggiore

quanto più rapidamente l’energia del terremoto viene liberata. Un caso estremo a tal riguardo è

rappresentato dal terremoto di Christchurch (Nuova Zelanda) del 22 febbraio 2011 di magnitudo

ML=6,3, che provocò danni gravissimi e 185 vittime a causa dell’accelerazione elevatissima; che

infatti raggiunse il valore di 2g, cioè due volte l’accelerazione di gravità terrestre.

3

I tremori di debole intensità, rivelati soltanto dagli strumenti, sono estremamente frequenti,

mentre i sismi di maggiore intensità, fortunatamente, sono via via meno frequenti al crescere della

magnitudo. Per esempio, di quelli con magnitudo compresa fra 2 e 3, appena avvertibili dalle

persone, se ne verificano oltre un milione all’anno in tutto il mondo, mentre la frequenza dei

terremoti più distruttivi, con magnitudo maggiore di 7, è compresa fra 10 e 20 l’anno. Il terremoto

più intenso della storia, con magnitudo 9,5, si verificò nel Cile il 22 maggio 1960: accompagnato da

uno tsunami, provocò diverse migliaia di vittime e danni enormi.

La dipendenza della frequenza dei terremoti dalla loro intensità, che per quanto si è detto è

vivacemente decrescente al crescere della magnitudo, è rappresentata dalla legge di Gutenberg-

Richter (G-R) con la formula: log10 N = a – b M, dove N è il numero degli eventi con magnitudo

maggiore o uguale a M che si verificano in una data regione in un dato intervallo di tempo, a e b

sono due costanti caratteristiche della regione, con a indice della sismicità complessiva e b

generalmente pari all’unità. Ciò significa che a 1000 terremoti di magnitudo M ne corrisponderanno

circa 100 con magnitudo M+1, circa 10 con magnitudo M+2 e così via. Questa legge, che è di natura

empirica e generalmente è ben verificata sperimentalmente, può in realtà essere giustificata con

argomenti di fisica statistica.

Il modello fisico più semplice per un terremoto è quello basato sulla teoria del rimbalzo

elastico (elastic rebound), proposta dopo il terremoto di San Francisco del 1906. Questa teoria

utilizza l’analogia con una molla che, quando viene sollecitata oltre il carico di rottura del materiale,

si spezza bruscamente liberando l’energia che aveva accumulato. Qui si considera una faglia le cui

pareti sono soggette a moti relativi di scorrimento lentissimi - tipicamente dell’ordine di alcuni

cm/anno in California e di alcuni mm/anno negli Appennini – deformando le rocce che nel tempo

accumulano energia elastica. Quando poi la deformazione è tale da produrre una frattura, questa si

estende lungo la faglia liberando l’energia accumulata. Si ha un terremoto quando questa liberazione

avviene in tempi relativamente brevi irradiando parte di questa energia nella forma di onde sismiche

che si propagano attorno all’ipocentro, raggiungendo la superficie terrestre all’epicentro e nella

regione circostante.

Da questo modello emerge la nozione di terremoto caratteristico di una determinata regione

sismica caratterizzata da una singola faglia, secondo la quale la deformazione delle rocce cresce

approssimativamente in modo proporzionale al tempo trascorso dall’ultimo sisma fino ad arrivare a

provocare un altro sisma. E quindi la sequenza dei terremoti sarebbe approssimativamente periodica,

caratterizzata da un determinato tempo di ricorrenza. Cosa peraltro quasi mai osservata

sperimentalmente, anche perché generalmente le faglie non sono isolate ma rientrano in sistemi di

faglia di varia complessità.

La tipologia dell’attività sismica è molto varia, manifestandosi a volte con scosse isolate, più

frequentemente con scosse, anche assai numerose, raggruppate nel tempo (nel corso di settimane o

anche di molti mesi) e nello spazio, che sono denominate cluster. Spesso le scosse di maggiore

intensità, denominate mainshock sono seguite da repliche (aftershock) di intensità decrescente con il

tempo, meno spesso sono precedute da terremoti precursori (foreshock) meno intensi1. Altre volte

ancora si verificano sequenze sismiche di piccola o moderata intensità, chiamate sciami (swarm),

senza la presenza di scosse più intense. Ma è chiaro che queste denominazioni hanno senso solo in

termini retrospettivi.

2. Previsioni deterministiche e precursori sismici

Sarebbe assai desiderabile, per prevenirne o comunque mitigarne i danni, poter stabilire con

certezza quando, dove e con quale intensità si verificherà un terremoto, cioè disporre di una

previsione deterministica . Precisando che il dove riguarda una finestra spaziale, cioè l’area di una

1 Ciò giustifica l’antica regola di sopravvivenza secondo la quale quando la terra trema è opportuno restare fuori di casa

per qualche giorno.

4

determinata regione geografica, il quando riguarda una finestra temporale, cioè un determinato

intervallo di tempo (un giorno, una settimana, …), e per intensità s’intende qui un determinato

intervallo di valori di magnitudo (per esempio per M compresa fra 5 e 7). Questo obiettivo, come si

è accennato, non è stato raggiunto, nonostante le intense ricerche svolte al riguardo, e non è neanche

detto che sia effettivamente raggiungibile2. E’ invece possibile disporre di previsioni di natura

probabilistica, per loro stessa natura caratterizzate da livelli di incertezza, che le ricerche in atto

mirano a ridurre grazie ad un impiego accorto di tutte le informazioni disponibili.

I metodi di previsione deterministica che sono stati proposti e studiati finora sono basati

essenzialmente sull’impiego di precursori diagnostici, cioè sulla registrazione di fenomeni che

precedono i terremoti consentendo di prevederli, idealmente indicando il luogo, il tempo e l’intensità

di questi eventi. I segnali che sono stati studiati come precursori sono numerosi. Fra questi, accanto a

particolari forme di attività sismica, citiamo le variazioni della deformazione delle rocce, della

velocità di propagazione delle onde sismiche, dei livelli delle acque freatiche, della conducibilità

elettrica dei terreni e del contenuto di radon nelle acque, nel terreno e nell’aria; la presenza di segnali

elettromagnetici in varie gamme di frequenza, le anomalie termiche (variazioni di temperatura) e

anche i comportamenti anomali di animali.

Una commissione scientifica internazionale, istituita appositamente dalla IASPEI

(International Association of Seismology and Physics of the Earth’s Interior), ha esaminato

accuratamente i metodi basati sui precursori e i risultati ottenuti con essi, arrivando a stabilire che si

tratta di una raccolta di fenomeni caratterizzati da limitato potere predittivo, nel senso che presentano

semplicemente qualche prospettiva di diventare utili per la previsione dei terremoti nel futuro [1]. Per

quanto riguarda in particolare le emissioni di radon3, non hanno portato a esiti utili i numerosi studi

svolti al riguardo, che erano stati avviati dopo l’osservazione di un forte aumento della

concentrazione di questo gas nelle acque superficiali in prossimità dell’epicentro di un terremoto di

magnitudo 5,3 verificatosi nel 1966 a Tashkent, Uzbekistan. Il radon è prodotto con continuità

all’interno delle rocce: le fratture provocate anche da piccoli terremoti ne alterano il flusso verso la

superficie, dove si possono osservare variazioni delle emissioni di questo gas.

Da quando si è cominciato a porre attenzione ai precursori sismici, si è registrata un solo caso

nel quale la previsione di un terremoto è stata confermata dai fatti, accanto ad innumerevoli nei quali

i sismi si sono manifestati senza essere stati previsti. Si tratta del terremoto di Haicheng (Manciuria,

Cina) verificatosi il 4 febbraio 1975 con magnitudo 7,3, la cui previsione condusse all’evacuazione

della città, salvando la vita a un gran numero di persone, stimato in oltre 100mila. I segnali

premonitori considerati ai fini dell’allarme riguardarono lo spostamento dei livelli delle falde

freatiche, le deformazioni geodetiche dei terreni e l’infittirsi di tremori sismici osservati soltanto a

livello strumentale. Ma già l’anno successivo, sempre in Cina, ebbe luogo il terremoto di Tangshan

(28 luglio 1976) con magnitudo 7,5, provocando 240mila vittime, senza che fosse stato previsto.

Anche i tentativi di effettuare previsioni in base alla teoria del terremoto caratteristico, cioè

sfruttando le regolarità dell’occorrenza dei sismi in una data regione, non hanno condotto a risultati

apprezzabili. Per esempio, l’osservazione della regolarità (approssimativa) dei tempi di occorrenza

dei sismi più intensi avvenuti nei pressi della città di Parkfield, California, che è attraversata dalla

faglia di San Andreas, condusse a prevedere che il terremoto successivo si sarebbe verificato con

probabilità superiore al 90% nell’intervallo di tempo fra il 1985 e il 1993, mentre invece ebbe luogo

nel 2004.

2 Così scrisse Richter nel suo trattato di sismologia (1958) : “Al presente non vi è alcuna possibilità di prevedere i

terremoti nel senso popolare, cioè nessuno può dire giustificatamente che un terremoto colpirà una data località in una

determinata data futura”.

3 L’isotopo principale del radon (Rn-222) è un gas prodotto dal decadimento dell’uranio-238 che in varia misura è

contenuto nella maggior parte delle rocce terrestri. Si tratta di un gas inerte, cioè che non forma composti con altri

elementi, solubile nell’acqua e radioattivo, cosa che consente di misurarlo facilmente anche in piccolissime quantità. La

sua vita media è di 3,8 giorni, sicché non può diffondersi a grande distanza da dove è stato emesso.

5

3. Previsioni probabilistiche Si parla di previsione probabilistica quando si stabilisce la probabilità che si verifichi un

terremoto in una data regione, in un determinato intervallo di tempo e con determinate intensità o

magnitudo. Tale probabilità può essere considerata costante nel tempo oppure dipendente dal tempo,

cioè aggiornata continuamente in base alle informazioni via via disponibili.

Nelle previsioni a lungo termine si considera generalmente un intervallo di tempo di 50 anni,

con probabilità di accadimento indipendenti dal tempo, che vengono dedotte dalle informazioni

contenute nei cataloghi sismici. Così procedendo, i terremoti sono rappresentati come processi

casuali di tipo poissoniano4, dei quali si stima la frequenza media, e quindi la probabilità che si

verifichino nell’intervallo di tempo considerato, grazie alla conoscenza degli intervalli di tempo

intercorsi in passato fra un sisma e il successivo.

In pratica in Italia e in altri paesi si attua la cosiddetta zonazione del territorio, che viene

suddiviso in zone caratterizzate ciascuna da un determinato livello di sismicità. Questi dati sono

usati in particolare per stabilire i requisiti di antisismicità delle nuove costruzioni nelle diverse zone.

Per fare un parallelo con la meteorologia, si può dire che la zonazione sismica riguarda il “clima”

sismico di una regione piuttosto che “il tempo” quale fornirebbero delle previsioni vere e proprie.

Figura 1 - Suddivisione del territorio in zone sismiche per stabilire i requisiti di antisismicità delle

nuove costruzioni: zonazione ZS9 del 2004 a cura del Gruppo Nazionale Difesa dai Terremoti

(i colori servono solo a contraddistinguere le diverse zone).

In rete: http://www.dic.unipi.it/walter.salvatore/AA2009_2010/Dispense%20Cap%205.pdf

4 Tali processi sono caratterizzati da tempi di accadimento casuali, ma con frequenza media determinata.

6

Si considerano anche previsioni a medio termine, per esempio sull’arco di 5 o 10 anni, ma le

più innovative (perché frutto di ricerche relativamente recenti) e di maggiore impatto a livello

emotivo sono le previsioni probabilistiche a breve termine (giorni o settimane). Queste possono

essere caratterizzate da probabilità costanti, ottenute rapportando alla finestra temporale considerata

le probabilità a lungo termine relative a intervalli di 50 anni; oppure da probabilità aggiornate in base

all’osservazione dell’attività sismica più recente nella zona considerata. La probabilità costante

assume il significato di probabilità a priori, la probabilità aggiornata quello di probabilità a

posteriori o probabilità condizionata, in quanto stabilita tenendo conto delle nuove osservazioni.

Il rapporto fra la probabilità aggiornata e quella costante prende il nome di guadagno di

probabilità (probability gain). Un problema che spesso si verifica è che, anche a fronte di un

guadagno di probabilità elevato (per esempio 100), se la probabilità a priori è molto bassa (uno su

100mila), la probabilità finale resta piuttosto bassa (0,001) rendendo difficili le scelte operative.

Sono stati sviluppati vari criteri per aggiornare le probabilità sulla base delle osservazioni

della sismicità locale: una problematica che costituisce oggetto di ricerca ed è attualmente in fase di

sviluppo. Ma non entriamo nei dettagli della varietà dei modelli utilizzati a questo fine perché di

natura prettamente tecnica. Ricordiamo invece che l’indirizzo attuale di ricerca in questo ambito è

rivolto a stabilire procedimenti di previsione probabilistica operativa, che alle migliori stime di

probabilità accompagnino protocolli ben definiti e trasparenti per l’attività dei decisori politici e i

loro rapporti con le popolazioni interessate.

Osserviamo qui che “la maggior parte delle vittime causate da un terremoto è dovuta a crolli

di edifici e strutture. Per questo una adeguata regolamentazione antisismica è la migliore difesa che

abbiamo contro i terremoti”[2]. Resta il fatto che questi provvedimenti vengono presi sempre in

ritardo, sull’emozione creata nel pubblico dagli effetti disastrosi di un sisma. Come nel caso del

terremoto del Molise del 31 ottobre 2002 con magnitudo MW=6,0, che provocò il crollo della scuola

di San Giuliano di Puglia (Campobasso) con la morte di 27 bambini e di un insegnante: solo a

seguito di questo triste evento il governo si impegnò ad affrontare il problema della sicurezza sismica

degli edifici scolastici. E’ anche istruttivo apprendere che l’8 aprile 2009, cioè due giorni dopo il

rovinoso terremoto dell’Aquila, la Commissione Ambiente della Camera approvò all'unanimità, con

il parere favorevole del governo, una risoluzione che impegna l'esecutivo, nei prossimi

provvedimenti legislativi, ad abrogare le disposizioni che prorogano la piena entrata in vigore delle

nuove norme tecniche per le costruzioni, dettate dal decreto ministeriale del 14 gennaio 2008.

Chiedendo inoltre al governo di prevedere indirizzi e modalità per la verifica, il controllo e

l'applicazione delle relative sanzioni in ordine all'osservanza delle norme per le costruzioni nelle fasi

esecutive di realizzazione delle opere.

A ciò si aggiunge il fatto che spesso le amministrazioni locali tardano ad applicare le

normative: si è trovato infatti che alcune strutture crollate nel terremoto dell’Emilia del 2012 erano

state costruite di recente fuori norma, ciononostante autorizzate dalle autorità regionali.

A questo riguardo è istruttivo il caso del Giappone, dove vige una normativa molto severa che

viene applicata rigorosamente. Consultando le liste dei terremoti verificatisi in questo paese e in

Italia, risulta evidente come scosse di magnitudo corrispondente o anche maggiore di quelle dei

terremoti italiani abbiano prodotto in Giappone un numero di vittime nullo o comunque molto

inferiore che in Italia. Grazie appunto ai criteri antisismici seguiti nelle costruzioni di quel paese.

In Italia, una guida importante alla conoscenza della sismicità locale è costituita, oltre che

dalla mappa di figura 1, dalla carta della sismicità, che rappresenta la distribuzione degli epicentri di

45.000 terremoti avvenuti in Italia tra il 1981 e il 2002 http://csi.rm.ingv.it/catalogo/doc10/Stampa-

Poster.pdf, e soprattutto dalla mappa di pericolosità sismica

http://zonesismiche.mi.ingv.it/mappa_ps_apr04/italia.html, entrambe compilate a cura dell’INGV.

Questa mappa, riportata nella figura 2, rappresenta la massima accelerazione del suolo prevedibile

nell’arco di 50 anni, con probabilità del 10% che l’accelerazione risulti maggiore di quanto riportato,

7

dove l’accelerazione è espressa in unità di g, l’accelerazione normale dovuta alla gravità (g=9,8

m/s2).

Figura 2 – Mappa della pericolosità sismica del territorio nazionale (2004), compilata a cura

dell’INGV.

Osserviamo infine che la sismicità italiana, sebbene attiva e diffusa, non prevede eventi di

grandissima intensità a differenza di altri paesi, come ad esempio il Giappone5 o il Cile. Il sisma di

maggiore magnitudo registrato storicamente è quello avvenuto in val di Noto (Sicilia) nel 1693, al

quale si attribuisce magnitudo 7,4. Essendo altamente improbabile che si possano verificare terremoti

di intensità maggiore, la definizione, e soprattutto poi l’effettiva attuazione, di una normativa

adeguata, tecnicamente ben possibile, dovrebbero garantire piena sicurezza almeno per quanto

riguarda le nuove costruzioni; ricordando che le tecnologie attuali permettono di realizzare

costruzioni che non crollano per magnitudo fino a 7. Più costosi sarebbero gli interventi sulle

costruzioni esistenti, sicché l’obbiettivo di mettere in sicurezza gli edifici in tutta l’Italia dovrebbe

attuarsi con priorità guidate dalle previsioni a lungo termine.

5 Soltanto negli ultimi dieci anni, in Giappone si sono verificati ben 4 terremoti con magnitudo maggiore o uguale a 8.

8

4. La vicenda del terremoto dell’Aquila del 2009

4.1 Il terremoto

La regione appenninica comprendente la provincia dell’Aquila è caratterizzata da una forte

sismicità dovuta al fatto che è attraversata (in direzione approssimativamente nordovest-sudest) dal

confine fra due placche, quella africana e quella euroasiatica. In questa regione si sono verificati in

passato diversi terremoti di grande intensità con effetti pesantemente distruttivi. Proprio uno dei

sismi più rovinosi verificatisi in Italia, con magnitudo 7, colpì la zona della Marsica il 15 gennaio

1915 distruggendo completamente la città di Avezzano e vari paesi dei dintorni, e causando oltre

30mila vittime.

Fra i terremoti che colpirono la città dell’Aquila e la zone immediatamente circostanti si

ricorda soprattutto quello del 2 febbraio 1703, cui si attribuisce magnitudo MW = 6,9, il quale

provocò alla città danni enormi e oltre 6000 morti. Il sisma fu preceduto da una lunga sequenza di

scosse minori fra cui una particolarmente intensa (con magnitudo stimata MW = 6,8) che si era

verificata pochi giorni prima (14 gennaio 1703) nella parte settentrionale della provincia. Un altro

terremoto particolarmente intenso (con magnitudo stimata MW = 6,5) aveva avuto luogo il 26

novembre 1461, preceduto anch’esso da una sequenza sismica con scosse di varia intensità e seguito

da numerose repliche. Questo sisma provocò gravi danni alla città ma fortunatamente un numero

relativamente modesto di vittime, circa 150.

Sulla base di quanto si conosceva, negli anni precedenti il terremoto del 2009, gli studiosi

consideravano probabile la ripetizione di un sisma rovinoso all’Aquila nei prossimi decenni. Come

infatti mostra la figura 3, compilata dell’INGV nel gennaio 2009, che rappresenta la suddivisione del

territorio nazionale in zone caratterizzate dal valore della probabilità di occorrenza di un sisma con

magnitudo maggiore o uguale a 5,5 nei dieci anni successivi. Inoltre, una scossa nella regione

Figura 3 – La mappa,

compilata dall’INGV il 1

gennaio 2009, fornisce,

per ciascuna delle zone

indicate, la probabilità di

accadimento di un

terremoto di magnitudo

5,5 o maggiore nei dieci

anni successivi. La città

dell’Aquila ricade nella

zona 36, che è fra quelle

con probabilità

relativamente elevata.

In rete: http://earthquake.bo.ingv.it

/

I

9

aquilana nei prossimi anni con magnitudo maggiore o uguale a 5,9 era stata prevista in un lavoro

del 1995 [3] dal prof. Enzo Boschi, al tempo presidente dell’Istituto Nazionale di Geofisica

(predecessore dell’INGV).

Una valutazione molto semplice è la seguente. Se il sisma fosse dovuto avvenire dopo un

intervallo di tempo dal 1703 pari a quello intercorso fra i grandi terremoti del 1461 e del 1703, la

data sarebbe stata attorno al 2045. La probabilità indipendente dal tempo si può quindi valutare

ammettendo che nell’arco di 50 anni il futuro sisma debba verificarsi con certezza, cioè con

probabilità pari a 1. La probabilità giornaliera, ottenuta dividendo l’unità per il numero dei giorni

contenuti in 50 anni, è allora di circa 0,00005, cioè 50 milionesimi. Prescindendo così da altri

elementi, in particolare dall’osservazione di scosse potenzialmente premonitrici.

Anche il sisma del 6 aprile 2009, come gli altri grandi terremoti che abbiamo menzionato, è

stato preceduto da tremori e scosse di varia intensità che avevano avuto inizio nel dicembre 2008,

con una attività particolarmente intensa nei dieci giorni immediatamente precedenti. Suggerendo

così, in base ai diversi modelli disponibili al tempo, diverse valutazioni del guadagno di probabilità

dal quale dedurre stime per la probabilità giornaliera dipendente dal tempo. Una scossa più intensa

(ML=4) avvenne poi il 30 marzo, destando allarme nella popolazione.

Preceduto poche ore prima da un’altra scossa, il grande terremoto, con magnitudo MW=6,3,

ebbe infine luogo il 6 aprile alle 3:32, e fu seguito da numerose altre repliche nei giorni e nei mesi

seguenti. La faglia responsabile del sisma, chiamata faglia di Paganica, è lunga poco più di 20 km

con area di circa 250 km. Il terremoto provocò 308 vittime, 1500 feriti e 65mila sfollati; distrusse

completamente alcuni paesi dei dintorni e causò danni gravissimi alla città dell’Aquila, in particolare

al suo centro storico. Gran parte delle vittime, tuttavia, perirono nel crollo di un numero

relativamente piccolo di edifici, in maggior parte costruiti in cemento armato negli anni 50 e 60 del

secolo scorso; molto probabilmente con difetti di progettazione o di realizzazione dato che si tratta di

una frazione minimale del complesso degli edifici analoghi, i quali subirono danni più o meno gravi

resistendo però al sisma e salvando le vite degli occupanti.

Nella vicenda dell’Aquila si inserisce con le sue dichiarazioni6 il sig. Giampaolo Giuliani, che

nei giorni successivi al terremoto troverà ampio spazio mediatico (ricordiamo per esempio le

trasmissioni Tv Porta a porta del 7 aprile 2009 e Annozero del 9 aprile 2009) per rappresentare al

pubblico la sua tecnica di previsione dei terremoti, basata sull’osservazione delle emissioni di gas

radon. Più precisamente, a quanto riportato dalla stampa7, Giuliani prevede un terremoto a Sulmona

per il 1 aprile 2009, che tuttavia non si verifica (per tale dichiarazione egli subisce una denuncia per

procurato allarme, che successivamente venne archiviata dalla magistratura). Ricordiamo infine che

la sua attività riguardante il radon, assieme alle sue ipotesi relative alla dipendenza dei terremoti

dalle maree terrestri e dalle stagioni dell’anno, non è mai stata oggetto di pubblicazione su riviste

scientifiche [4].

4.2 La riunione della Commissione Grandi Rischi

Qualche giorno prima del terremoto, a fronte delle scosse che si stavano manifestando con

intensità maggiori che in precedenza, delle dichiarazioni di Giuliani menzionate sopra e dei timori

della popolazione, la Protezione civile convocò una riunione della Commissione Grandi Rischi8

6 Dichiarazioni peraltro largamente contraddittorie, come risulta da un video accessibile da YouTube:

http://www.youtube.com/watch?v=c7-9lNkA-y4

7 http://www.corriere.it/cronache/09_aprile_01/terremoto_psicosi_fbd94050-1e82-11de-9011-00144f02aabc.shtml

8 Tale commissione, la cui esatta denominazione è Commissione Nazionale per la Previsione e Prevenzione dei Grandi

Rischi, è la struttura di collegamento tra il Servizio Nazionale della Protezione Civile e la comunità scientifica. La sua

funzione principale è fornire pareri di carattere tecnico-scientifico su quesiti del Capo Dipartimento e dare indicazioni su

10

(CGR) da tenersi all’Aquila il 31 marzo. La riunione, convocata “Per un'attenta disamina degli

aspetti scientifici e di Protezione Civile relativi alla sequenza sismica degli ultimi quattro mesi

verificatesi in provincia dell'Aquila e culminata nella scossa di magnitudo 4.0 del 30 marzo alle ore

15,38 locali”, si svolse con la partecipazione di quattro componenti della commissione (Franco

Barberi, Enzo Boschi, Gian Michele Calvi e Claudio Eva), del vicecapo della Protezione civile

nazionale Bernardo De Bernardinis, del direttore del Centro nazionale terremoti Giulio Selvaggi e

del direttore dell’Ufficio rischio sismico della Protezione civile nazionale Mauro Dolce, alla presenza

del sindaco della città Massimo Cialente, dell’assessore alla Protezione civile della regione Daniela

Stati e di alcuni rappresentanti della protezione civile locale. Il comunicato stampa, diramato dalla

Protezione civile prima delle riunione, riporta “l’obbiettivo di fornire ai cittadini abruzzesi tutte le

informazioni disponibili alla comunità scientifica sull’attività sismica delle ultime settimane”.

Il verbale della riunione non venne firmato seduta stante, ma dopo il terremoto. A quanto

risulta da questo verbale9, nel corso della riunione si prende atto delle osservazioni raccolte sinora, si

esprimono considerazioni sulla situazione e si esaminano le previsioni di Giampaolo Giuliani basate

sullo studio delle emissioni di radon, contestandone la validità. Leggendo il verbale troviamo fra

l’altro quanto segue. Prof. Boschi: “Improbabile che vi sia a breve una scossa come quella del 1703,

pur se non si può escludere in maniera assoluta” e poi “ se si guarda una faglia attiva, la sismicità è

in un certo modo sempre attiva, manifestandosi attraverso scorrimenti lenti, piccoli terremoti e,

talvolta, terremoti forti. Quindi la semplice osservazione di molti piccoli terremoti non costituisce

fenomeno precursore”. Prof. Eva: “Non è possibile affermare che non vi saranno terremoti”. Dott.

Selvaggi: “Ci sono stati anche alcuni terremoti preceduti da scosse più piccole alcuni giorni o

settimane prima, ma è anche vero che molte sequenze in tempi recenti non si sono poi risolte in forti

terremoti”. Prof. Barberi: ”non c’è nessun motivo per cui si possa dire che una sequenza di scosse di

bassa magnitudo possa essere considerata precursore di un forte evento”.

Immediatamente prima e poi al termine della riunione vennero rilasciate diverse interviste.

Nella trascrizione di una di queste, rilasciata10

all’emittente televisiva locale Tv Uno da Bernardo De

Bernardinis, si legge: “dobbiamo andare al settecento per avere, seicento settecento per avere i

massimi eventi, però diciamo che in qualche modo è una …, deve essere un popolo, io stesso sono …

dovrebbe essere preparato a convivere con questa situazione, non c’è un pericolo, io l’ho detto al

Sindaco di Sulmona, la comunità scientifica mi continua a confermare che anzi è una situazione

favorevole perciò uno scarico di energia continuo, e quindi sostanzialmente ci sono anche degli

eventi piuttosto intensi, non sono intensissimi, quindi in qualche modo abbiamo avuto abbiamo visto

pochi danni, diciamo vista la sequenza temporale molto lunga degli eventi, quindi credo che siamo

pronti a fronteggiare la situazione, io chiedo ai cittadini di stare anzi agli abitanti alla popolazione,

di starci vicino, e stare vicino a loro stessi”.

L’ipotesi dello scarico continuo di energia (secondo la quale numerosi piccoli terremoti

possono scaricare l’energia elastica accumulata nel tempo allontanando così la prospettiva di un forte

terremoto), menzionata come elemento tranquillizzante nell’intervista di de Bernardinis, è in realtà

assai poco consistente con i risultati della ricerca sismologica: quelli che in sostanza sono alla base

dei criteri di previsione probabilistica dei terremoti.

come migliorare la capacità di valutazione, previsione e prevenzione dei diversi rischi.

www.protezionecivile.gov.it/jcms/it/commissione_grandi_rischi.wp

9 https://docs.google.com/file/d/0B847PMehCOEjbmtPd2t1dTV4ODg/edit?pli=1

10

Questa dichiarazione, a quanto risulta dagli atti del processo, venne rilasciata subito prima della riunione della

Commissione, ma andò in onda la sera del 31 marzo.

11

4.3 La vicenda giudiziaria

Dopo il terremoto del 6 aprile la Procura della Repubblica dell’Aquila, avviò diversi filoni

d’indagine, alcuni dei quali riguardanti le responsabilità per i crolli di alcuni edifici di costruzione

più o meno recente fra cui la Casa dello studente, con conseguenti azioni giudiziarie, alcune delle

quali poi giunte a conclusione. Qui ci occupiamo dell’indagine riguardante la Commissione Grandi

Rischi, sollecitata da una denuncia di una trentina di parenti delle vittime, secondo i quali la riunione

della CGR del 31 marzo aveva diffuso ottimismo e false rassicurazioni anche attraverso i messaggi di

tecnici ed amministratori. All’indagine seguì una azione giudiziaria nei confronti di alcuni dei

partecipanti alla riunione del 31 marzo, i quali nel giugno 2010 furono imputati di omicidio colposo

multiplo per non aver valutato correttamente il rischio sismico in atto e aver trascurato di informarne

correttamente la popolazione.

Questa incriminazione fu considerata da molti come un attacco alla scienza, provocando nei

suoi confronti decise prese di posizione, in Italia e all’estero, da parte di persone, gruppi (un appello

con oltre cinquemila firme al Presidente Napolitano [5]) e associazioni scientifiche, con riflessi sulla

stampa e anche su riviste scientifiche internazionali. Altri ritennero invece che il comportamento

degli imputati fosse stato gravemente negligente nel senso di aver colpevolmente indotto la

popolazione a ridurre il livello di allarme. A questo riguardo il procuratore capo del tribunale

dell’Aquila Alfredo Rossini precisò al Tg3 che: “I responsabili sono persone molto qualificate che

avrebbero dovuto dare risposte diverse ai cittadini. Non si tratta di un mancato allarme, l’allarme

era già venuto dalle scosse. Si tratta del mancato avviso che bisognava andarsene dalle case”.

Dopo un dibattimento durato tredici mesi, il 22 ottobre 2012 il giudice Marco Billi del

tribunale dell’Aquila emise una sentenza di condanna a sei anni di reclusione per omicidio colposo,

disastro colposo e lesioni personali nei confronti di Franco Barberi, Enzo Boschi, Gian Michele

Calvi, Bernardo De Bernardinis, Claudio Eva, Mauro Dolce e Giulio Selvaggi, “per colpa consistita

in negligenza imprudenza, imperizia”, con motivazione resa nota il 18 gennaio 2013.

La lettura della requisitoria del pubblico ministero Fabio Picuti [6] e della motivazione della

sentenza [7] fornisce elementi utili a comprendere le ragioni della condanna, che non riguardano la

mancata previsione del terremoto, come inizialmente interpretato dalla comunità scientifica, ma

elementi più sottili, che sono brevemente riassunti in quanto segue. Nella requisitoria, come anche

nella motivazione, si evidenzia come la colpa sia “consistita in negligenza imprudenza, imperizia;

effettuando, in occasione della riunione del 31 marzo, una “valutazione dei rischi connessi”

all’attività sismica in corso sul territorio aquilano dal dicembre 2008 approssimativa, generica ed

inefficace in relazione alle attività e ai doveri di “previsione e prevenzione”; fornendo, in occasione

della riunione, sia con dichiarazioni agli organi di informazione sia con redazione di un verbale, …

informazioni incomplete, imprecise e contraddittorie sulla natura, sulle cause, sulla pericolosità e

sui futuri sviluppi dell’attività sismica in esame, in tal modo vanificando le finalità di “tutela

dell’integrità della vita, dei beni, degli insediamenti e dell’ambiente dai danni o dal pericolo di

danni derivanti da calamità naturali, da catastrofi e da altri grandi eventi che determinino situazioni

di grave rischio”, affermando che sui terremoti “non è possibile fare previsioni”, “è estremamente

difficile fare previsioni temporali sull’evoluzione dei fenomeni sismici”, “la semplice osservazione di

molti piccoli terremoti non costituisce fenomeno precursore” e al contempo l’esatto contrario

ovvero “qualunque previsione non ha fondamento scientifico”, ritenendo che “non c’è nessun motivo

per cui si possa dire che una sequenza di scosse di bassa magnitudo possa essere considerata

precursore di un forte evento”… “.

Elemento decisivo per giungere alla condanna è l’individuazione del nesso causale fra il

comportamento degli imputati e la sorte delle vittime, che il giudice Marco Billi ritiene dimostrato

dalle testimonianze dei parenti.

Alla sentenza seguirono immediatamente le dimissioni dell’ufficio di presidenza della

Commissione Grandi Rischi, giustificate dalla seguente dichiarazione del presidente prof. Luciano

Maiani: “la situazione creatasi a seguito della sentenza di ieri sui fatti dell'Aquila è incompatibile

12

con un sereno ed efficace svolgimento dei compiti della Commissione e con il suo ruolo di alta

consulenza nei confronti degli organi dello Stato”. Mentre il presidente onorario Giuseppe

Zamberletti11

dichiarava a sua volta: “Il rischio è che gli scienziati non se la sentano più di esprimere

liberamente il risultato delle proprie conoscenze. Che garanzie hanno che gli studi fatti non possano

diventare oggetto di una responsabilità penale?”. Il 30 ottobre Maiani annunciò poi di aver sospeso

la dimissioni dopo aver ricevuto dal governo segnali rassicuranti a proposito delle sue richieste di

garanzie per la protezione legale dei membri della commissione e la copertura finanziaria nei

confronti degli esiti di eventuali procedimenti civili. Richieste peraltro da lui già presentate in

precedenza, prima del suo insediamento, ma non accolte.

La condanna, come era avvenuto per l’incriminazione, trova grande eco sulla stampa, che

riporta al riguardo pareri di diverso orientamento [8, 9, 10], coinvolgendo anche alcune riviste

scientifiche internazionali [11, 12]. Alcuni di questi pareri trovano forte motivazione nella

pubblicazione di intercettazioni telefoniche secondo le quali la riunione CGR del 31 marzo sarebbe

stata in qualche modo indirizzata dalla Protezione civile verso conclusioni tranquillizzanti, anche

sulla base della già menzionata ipotesi che le sequenze di scosse liberano energia evitando sismi più

intensi [13]. Sono numerose le associazioni scientifiche che esprimono preoccupazione e stupore per

la condanna, fra queste la Società Italiana di Fisica [14], l’American Geophysical Union e la Union

of Concerned Scientists. Ma si registrano anche prese di posizione di singoli [15] e di associazioni

scientifiche [16] che plaudono alla sentenza.

Commentare la sentenza di condanna dell’Aquila è certamente difficile. Non si può tuttavia,

in primo luogo, non rilevare la grande severità della pena, più pesante addirittura di quanto richiesto

dal Pubblico Ministero (4 anni) e inflitta senza distinzioni a tutti gli imputati. Emergono poi due

elementi piuttosto chiari.

Il primo è che nel dibattimento sono emerse le responsabilità della CGR nei confronti della

popolazione. Quelle responsabilità che nello specifico condussero alla tragica scelta di restare in casa

nella notte del terremoto da parte di alcune delle vittime, a fronte della lettura rassicurante delle

conclusioni della commissione e soprattutto delle dichiarazioni diffuse da alcuni dei partecipanti alla

riunione (vedi sopra). L’assessore Staiti, per esempio, testimoniava di aver dichiarato al termine

della riunione “Grazie per queste vostre affermazioni che mi permettono di andare a rassicurare la

popolazione attraverso i media che incontreremo in conferenza stampa”[7]. Ma diversa era la

testimonianza del sindaco Cialente, secondo cui sarebbe uscito dalla riunione CGR “più preoccupato

di prima”[17].

Il secondo riguarda lo spartiacque storico che la sentenza segna a proposito della

comunicazione fra scienziati e pubblico. Perché è la prima volta che si è avuta una condanna in

giudizio per le opinioni espresse da scienziati e funzionari pubblici, creando un precedente che, come

molti hanno rilevato, potrebbe indurre in futuro gli studiosi a evitare di trasmettere informazioni utili

in loro possesso. L’auspicio, invece, è che queste comunicazioni non si interrompano, ma piuttosto

si svolgano con estremo rigore e trasparenza, a differenza di quanto è risultato nel caso dell’Aquila.

Aggiungiamo infine che la sentenza di condanna di scienziati e tecnici potrebbe in qualche

modo attenuare nell’opinione pubblica le gravissime responsabilità dei politici e degli amministratori

che hanno lasciato costruire come non si sarebbe dovuto, hanno dato agibilità ad edifici con carenze

strutturali, non hanno provveduto a richiedere gli interventi necessari a garantire la sicurezza dei

vecchi edifici, senza cioè prendere decisioni atte a minimizzare in concreto i rischi sismici,

salvaguardando le popolazioni.

11

Ricordiamo che il 23 gennaio 1985 Giuseppe Zamberletti, al tempo ministro della Protezione Civile, venne avvisato

dall’ING di un probabile forte terremoto in Garfagnana, a seguito di una scossa premonitrice. Egli dispose l’evacuazione

di 100mila persone e la chiusura delle scuole. Ma nessun sisma si verificò e successivamente Zamberletti venne

indagato per procurato allarme.

13

5. Dalle previsioni alle decisioni: le previsioni operative La vicenda del terremoto dell’Aquila ha posto in forte evidenza due distinte problematiche.

La prima, di natura prettamente scientifica, riguarda il miglioramento delle capacità di previsione

probabilistica dei terremoti, con particolare riferimento ai casi nei quali si osservano sequenze

sismiche. E in effetti la risposta della comunità scientifica si è manifestata negli anni seguenti con lo

sviluppo di numerosi studi, alcuni dei quali riguardanti proprio il caso dell’Aquila. Per esempio in

uno di questi [18], pubblicato nel 2011, l’esame dei terremoti registrati in Italia negli ultimi decenni

porta a concludere che un sisma di magnitudo maggiore o uguale a 4 ha una probabilità di circa l’1%

di essere seguito da uno più intenso nei tre giorni successivi.

La seconda problematica, di natura invece politica e sociologica assieme, riguarda le modalità

di scelta delle decisioni da parte degli amministratori pubblici a fronte delle informazioni fornite

dagli scienziati, con particolare riferimento alle comunicazioni da tenere nei confronti delle

popolazioni interessate. Con l’esigenza di tener conto di come queste comunicazioni vengono

percepite, a cominciare dalla difficoltà di comprensione della nozione di probabilità e da come può

essere inteso il significato di termini come probabile o improbabile.

Consideriamo ad esempio il caso nel quale la previsione statistica porti a stabilire una

probabilità giornaliera dell’1% per l’accadimento di un terremoto di elevata intensità in una data

zona: come può essere interpretato questo dato? Assumendo come tranquillizzante la quasi certezza

(con probabilità del 99%) che nel giorno successivo non vi sarà alcun terremoto, o invece come

preoccupante la probabilità di accadimento dell’1%, che è numericamente bassa ma relativamente

elevata a fronte del rischio che pone un forte terremoto? E, in questa situazione, si deve disporre o no

l’evacuazione dei centri abitati? Quanto a lungo poi prolungandola, con evidenti e pesanti costi

sociali, nell’attesa di un sisma che ha molto probabilmente non si verificherà?

A scelte decisionali ancora più difficili conduce poi il caso nel quale l’aggiornamento delle

previsioni conduca a un aumento della probabilità (molto bassa) stimata precedentemente, ma

mantenendola ancora a livelli numericamente piccoli. In condizioni simili, cioè in presenza di una

sequenza sismica di grande durata seguita da una o più scosse più forti, nel caso dell’Aquila il grande

terremoto si è poi verificato; ma non così, fortunatamente, nel caso del Pollino, dove una sequenza

più importante, in termini sia di durata che di magnitudo, condusse al sisma di magnitudo 5 del 26

ottobre 2012, seguito poi da una serie di scosse di assestamento con magnitudo massima 3,3, che sta

ancora andando avanti.

Per affrontare le problematiche anzidette, il 21 aprile 2009 la Presidenza del consiglio istituì

una commissione (International Commission on Earthquake Forecasting for Civil Protection, ICEF),

costituita da studiosi di vari paesi esperti nel campo della previsione dei terremoti. Più precisamente,

i compiti assegnati alla commissione erano i seguenti: “1. Riferire sullo stato attuale delle

conoscenze sulla previsione a breve termine dei terremoti tettonici, 2. Indicare le linee guida per

l’utilizzazione di possibili precursori di grandi terremoti per orientare le azioni della protezione

civile, incluso l’impiego di analisi probabilistiche del rischio sismico per i grandi terremoti”. I

risultati del lavoro della commissione vennero presentati il 30 maggio 2011 al Dipartimento della

Protezione civile e pubblicati sulla rivista Annals of Geophysics [1].

Il rapporto della commissione presenta un esame dello stato dell’arte riguardante la

previsione dei terremoti, deterministica e probabistica, riaffermando fra l’altro la sostanziale inutilità

a questo fine dei precursori basati su segnali diversi da quelli sismici, almeno allo stato attuale delle

conoscenze. Considerando previsioni a lungo, medio e breve termine e discutendo in particolare i

diversi modelli previsionali attualmente disponibili, il rapporto si concentra sulle previsioni operative

a breve e brevissimo termine, così chiamate in quanto aggiornate con continuità e quindi utili a

determinare azioni da parte delle amministrazioni pubbliche. Vengono quindi riportate le procedure

seguite in sei paesi ad alto rischio sismico (Cina, Grecia, Italia, Giappone, Russia e Stati Uniti),

sottolineando come i modelli a lungo termine costituiscano attualmente lo strumento più importante

per la protezione nei confronti dei danni provocati dai terremoti, in quanto impiegati per migliorare

14

la sicurezza antisismica, cioè stabilire la normativa per le nuove costruzioni e definire altri criteri

ingegneristici, fra cui la messa in sicurezza degli edifici preesistenti. Per quanto riguarda in

particolare le previsioni a breve termine delle scosse di replica (aftershock), si nota che queste sono

svolte in vari paesi fra quelli esaminati, mentre non hanno ancora trovato piena attuazione le

previsioni operative vere e proprie, cioè aggiornate regolarmente e svolte su base nazionale.

Sulla base delle esperienze accumulate nelle regioni simicamente più attive, il rapporto

presenta infine una serie di raccomandazioni sull’utilizzazione delle previsioni operative. Secondo la

commissione, il pubblico deve poter disporre di informazioni sulle probabilità a breve termine di

futuri terremoti che siano autorevoli, scientificamente valide, consistenti, tempestive e provenienti da

fonti aperte. Questi dati devono essere basati su sistemi di previsione qualificati operativamente,

aggiornati regolarmente e che siano stati sottoposti al vaglio rigoroso di esperti. La qualità dei

modelli operativi deve essere valutata retrospettivamente e verificata rispetto alle previsioni a lungo

termine. Eventuali procedure di allerta devono essere standardizzate per determinare i livelli di

allarme sulla base sia di analisi oggettive dei costi e dei benefici sia di aspetti meno tangibili, come

gli effetti psicologici sulla resilienza e lo stato di preparazione del pubblico. Nella diffusione delle

informazioni riguardanti il rischio sismico, infine, si dovrebbero applicare i principi di efficace

comunicazione al pubblico stabiliti dalle ricerche nelle scienze sociali.

Un problema centrale, come si è detto, è quello di far corrispondere decisioni appropriate da

parte degli amministratori pubblici ai valori di probabilità stimati dai sismologi. Una guida a tal fine

può essere costituita dalla analisi costi-benefici, che trova largo impiego in altri ambiti e che è alla

base di molte delle nostre scelte. Questa metodologia, in previsione di un evento con probabilità P e

conseguenti perdite L, prevede l’attuazione di provvedimenti di costo C, soltanto se C risulta minore

del prodotto pL. Cioè se il beneficio risultante dai provvedimenti risulta maggiore del loro costo. Nel

caso dei terremoti, tuttavia, le probabilità sono tipicamente molto piccole e quindi i costi dei

provvedimenti devono essere piuttosto bassi perché si decida di attuarli. Per esempio, “è stato

dimostrato che l’evacuazione di una città, anche di piccole dimensioni, non può essere mai

giustificata con una analisi di questo tipo (almeno con le capacità previsionali attuali)”[2].

Un’altra conseguenza dei bassi valori di probabilità di accadimento che sono

tipicamente fornite dalle previsioni probabilistiche è che conduce a un numero molto elevato di falsi

allarmi. Considerando una probabilità dell’1% (numericamente piccola, ma relativamente alta in

ambito sismologico) si avrà infatti, in media, un caso di previsione avverata a fronte di 99 casi di

falso allarme, con conseguente perdita di credibilità degli amministratori e dei sismologi nei

confronti del pubblico. Una possibile soluzione a questo problema si basa sul fatto che generalmente

ogni persona ha una diversa percezione dei costi, sia quelli (L) derivanti dal rischio sia quelli (C)

delle misure da attuare in previsione. E quindi, in questi casi, potrebbe essere conveniente suggerire

alle persone coinvolte determinate azioni di riduzione del rischio, lasciandole però libere di attuarle o

meno a loro giudizio [2].

Spostare il livello decisionale finale dalle amministrazioni pubbliche alle persone richiede

però che queste siano debitamente informate, preparate e pronte ad agire. Informate non solo sulla

probabilità del possibile sisma, ma anche, preventivamente, sul grado di vulnerabilità della propria

abitazione, delle scuole dei figli, del posto di lavoro, … Preparate all’emergenza grazie alla

disponibilità di acqua, torce elettriche, attrezzi, mezzi di pronto soccorso, … Pronte a recarsi in

abitazioni più sicure, a dormire in macchina, …

In conclusione, la vicenda del terremoto dell’Aquila e del suo risvolto giudiziario, suggerisce

fortemente quanto segue. Cioè che gli scienziati dovrebbero dedicarsi essenzialmente al loro compito

di studiare e descrivere i fenomeni della natura, lasciando ad altri l’incarico di occuparsi di

impiegare queste informazioni [19]. La scelta dei provvedimenti da porre in atto riguarda infatti i

decisori pubblici - funzionari e politici -, ai quali spetta di tener conto del dato scientifico, pesando

accuratamente costi e benefici di ciascuna possibile azione di mitigazione, inclusa la definizione

delle normative per le costruzioni antisismiche, e considerandone gli aspetti di natura politica e

15

pratica. Questa netta separazione di ruoli non deve tuttavia impedire che, a monte di qualsiasi evento,

scienziati e decisori pubblici collaborino per stabilire protocolli decisionali trasparenti e coerenti, nel

pieno equilibrio fra le esigenze decisionali e quanto la scienza può (o non può) mettere a

disposizione.

Ringraziamenti

Ringrazio Carlo Cosmelli e Paolo Saraceno per gli utili suggerimenti, Warner Marzocchi per le

preziose indicazioni e per l’arricchimento della bibliografia.

Riferimenti

[1] T. H. Jordan et al. (International Commission on Earthquake Forecasting for Civil Protection)

Operational Earthquake Forecasting - State of Knowledge and Guidelines for Utilization, Annals of

Geophysics, vol. 54, n. 44, pp. 315-391, 2011. In rete:

http://www.annalsofgeophysics.eu/index.php/annals/article/view/5350/5371

[2] G. Woo, W. Marzocchi Previsione operative dei terremoti e decisioni Ambiente Rischio

Comunicazione, n. 4, pp. 21-25, ottobre 2012. In rete:

http://www.amracenter.com/doc/pubblicazioni/ARC_numero_4_web.pdf

[3] E. Boschi, P. Gasperini, F. Mulargia Forecasting Where Larger Crustal Earthquakes Are Likely

to Occur in Italy in the Near Future, Bulletin of the Seismological Society of America, vol. 85, n. 5,

pp 1475- 1482, ottobre 1995. In rete: http://www.6aprile.it/wp-

content/uploads/2012/10/Boschi_et_al_1995.pdf

[4] D. Cipolloni L’illusione di prevedere i terremoti Oggiscienza, 17 aprile 2010. In rete:

http://oggiscienza.wordpress.com/2010/04/15/lillusione-di-prevedere-i-terremoti/

[5] Lettera aperta dei sismologi al Presidente Napolitano,18 giugno 2010. In rete:

http://www.ingv.it/ufficio-stampa/stampa-e-comunicazione/archivio-comunicati-stampa/comunicati-

stampa-2010/lettera-aperta-dei-sismologi-al-presidente-napolitano/

[6] Memoria del Pubblico Ministero, 13 luglio 2012. In rete:

http://www.inabruzzo.com/memoria_finale_13_luglio.pdf

[7] Tribunale di L’Aquila Motivazione della sentenza, 18 gennaio 2013

In rete: http://processoaquila.files.wordpress.com/2013/01/sentenza-grandi-rischi-completa-1.pdf

[8] M. Fronte La condanna dell'Aquila sui giornali Fondazione Giannino Bassetti, 16 novembre

2012. In rete, con link a numerosi articoli di stampa:

http://www.fondazionebassetti.org/utils/html2ps/fgb/html2ps.php?URL=http://www.fondazionebasse

tti.org/it/rassegna/2012/11/la_condanna_dellaquila_sui_gio.html

[9] F. Battaglia Una barbarie le toghe che fanno gli scienziati Il Giornale, 24 ottobre 2012. In rete:

http://www.ilgiornale.it/news/interni/barbarie-toghe-che-fanno-scienziati-commento-2-849386.html

[10] P.Greco Una sentenza rischiosa L’Unità, 23 ottobre 2012. In rete:

http://www.unita.it/italia/una-sentenza-rischiosa-i-di-pietro-greco-i-1.458059

[11] N. Nosengo L’Aquila verdict row grows Nature, 31 ottobre 2012. In rete:

http://www.nature.com/news/l-aquila-verdict-row-grows-1.11683

[12] E. Cartridge Prison Terms for L'Aquila Experts Shock Scientists Science, vol. 338, n. 6106, pp.

451-452, 26 ottobre 2012. In rete: http://www.sciencemag.org/content/338/6106/451

[13] G. Caporale, E. Dusi, E Bertolaso ordinò: niente verità, La Repubblica. 26 ottobre 2012

16

[14] Dichiarazione della Società Italiana di Fisica in merito alla recente condanna dei membri della

Commissione Grandi Rischi per il tragico terremoto dell'Aquila, 23 ottobre 2012. In rete:

http://www.sif.it/news/169

[15] C. Cosmelli L'Aquila, perché la sentenza non è contro la scienza Galileo - giornale di scienza,

30 ottobre 2012. In rete: http://www.galileonet.it/articles/508f98d2a5717a1cbc000034

[16] P. Caridi Scienziati di tutto il mondo scrivono a Napolitano: “sentenza giusta” MeteoWeb, 12

novembre 2012. In rete: http://www.meteoweb.eu/2012/11/processo-terremoto-laquila-scienziati-di-

tutto-il-mondo-scrivono-a-napolitano-sentenza-giusta/163235/

[17] G. De Risio Cialente getta una luce diversa sulla Commissione Grandi Rischi Aquila Tv on

line, 16 novembre 2012

[18] W.Marzocchi, J. Zhuang Statistics between mainshocks and foreshocks in Italy and Southern

California Geophysical Research Letters, vol. 38, L09310, 6 pp, 2011

[19] W. Marzocchi Seismic hazard and public safety presentato a EOS Forum, 2013