Accastampato n. 0

36

description

Numero 0 di accastampato, la rivista di divulgazione scientifica della comunita' di accatagliato.org (final version)

Transcript of Accastampato n. 0

Page 1: Accastampato n. 0
Page 2: Accastampato n. 0

Accastampato non e un periodico, pertanto non e registra-to e non ha un direttore responsabile, e solo un esperimen-to – per ora occasionale – realizzato dagli studenti di Fisicadell’Universita degli Studi di Roma la Sapienza

Gli articoli contenuti in questo numero sono protetti conmarca digitale grazie a patamu.com

Quest’opera e rilasciata sotto la licenza Creative CommonsAttribuzione-Non commerciale-Condividi allo stesso modo3.0 Unported. Se non specificato altrimenti, tutti gli ar-ticoli in essa contenuti sono rilasciati dai rispettivi auto-ri sotto la medesima licenza. Per leggere una copia dellalicenza visita il sito web http://creativecommons.

org/licenses/by-nc-sa/3.0/ o spedisci una lette-ra a Creative Commons, 171 Second Street, Suite 300, SanFrancisco, California, 94105, USA.

Page 3: Accastampato n. 0

EDITORIALE

La divulgazione della Scienza a partire da chi la faLa ricerca scientifica a Roma: informare, orientare, incuriosire

ARoma e dintorni si fa moltissima ricerca, ma troppo pochi ne sono a conoscenza. So-prattutto non lo sa la maggior parte degli studenti delle superiori, proprio loro chesono chiamati a scegliere un percorso universitario che li prepari al mondo del lavo-ro: una mancanza di informazione che rischia di rendere inconsapevole una scelta cosı

importante.[...]Questa riflessione e stata il punto di partenza per un’idea tanto ambiziosa quanto, riteniamo, utilenell’ambito della divulgazione scientifica a Roma: accastampato, una rivista curata e gestita daglistudenti universitari del dipartimento di Fisica, che accolga i contributi di tutti coloro si impegnanoquotidianamente nella Ricerca, dai dottorandi ai ricercatori ai docenti. Una rivista che abbia comeobiettivo esplicito l’avvicinamento della popolazione studentesca delle superiori alla ricerca di punta,al meglio che venga prodotto nella nostra citta, affinche possa rendersi conto degli sbocchi e dellepotenzialita del proprio studio e di una scelta orientata alla Scienza.[...]

La sezione Il Ricercatore Romano raccogliera articoli riguardo i filoni di ricerca del Dipartimento,scritti direttamente dai loro protagonisti, con uno stile chiaro e divulgativo, il cui livello di difficoltasara indicato dagli atomi di accessibilita visibili nell’Indice: la possibilita di avere direttamente icontatti di coloro che lavorano e insegnano a Roma non potra che rendere ancora piu stretto il contattotra il mondo universitario e quello delle scuole superiori. A margine di cio, questa sezione sara ancheun’opportunita per gli studenti universitari di Fisica di conoscere le linee di ricerca al di fuori dellapropria specializzazione e di avere una panoramica tale da facilitare la scelta della dissertazione, dellaspecialistica, dei laboratori o del dottorato.

Una rubrica speciale, Il Resto del Neutrino, sara incentrata sulla spiegazione scientifica di fenomenie tecnologie quotidiane, ma troppo spesso sconosciuti, a volte apparentemente misteriosi. Articoliche renderanno chiaro come la Scienza e il metodo scientifico permeino ormai profondamente quasiogni aspetto della vita e che avranno l’esplicito scopo di combattere il sempre piu diffuso utilizzoinconsapevole della tecnologia moderna.

La sezione Nanos Gigantum ripercorrera alcune delle tappe fondamentali del pensiero scientifico,affinche le meraviglie naturali che esso solo ci permette di scoprire possano essere comprese nonsolo sul corretto piano logico o applicativo, ma anche nel loro inquadramento storico. Sara quindiun’opportunita per recuperare il gusto del cammino verso la conoscenza, a fianco allo stupore maisopito verso i contenuti della conoscenza stessa.

Completano la rivista le rubriche dedicate agli Eventi rilevanti nel panorama scientifico italiano einternazionale, alle Recensioni di libri e non solo, che possano fungere da spunto per un approfondi-mento o da guida per esplorare nuovi orizzonti, agli Esperimenti, da fare anche in casa per toccare conmano alcuni principi delle leggi naturali, e infine alle problematiche sociali, politiche ed economicheconnesse alla pratica scientifica.[...]

Buona lettura e. . . buona Ricerca!

accastampatoRivista degli Studenti di Fisica

dell’Universita Sapienza di Romawww.accatagliato.org

REDAZIONE

[email protected]

Alessio [email protected]

Carlo [email protected]

Silvia [email protected]

Erica [email protected]

Niccolo [email protected]

Isabella [email protected]

Kristian Gervasi [email protected]

COMMISSIONE SCIENTIFICA

Giorgio [email protected]

Fabio [email protected]

Lara [email protected]

Riccardo [email protected]

Francesco [email protected]

Antonio [email protected]

Antonello [email protected]

HANNO CONTRIBUITO

L. Benfatto, A. Bonforti, A. Cima-relli, C. Cosmelli, M. Mitrano, G.Piredda, T. Scopigno.

SI RINGRAZIANO ANCHE

Donald E. Knuth, Leslie Lam-port, la Comunita del TEX UsersGroup (TUG: www.tug.org),Gianluca Pignalberi e Kerti Alev(http://freyja.pri.ee/,immagine di copertina)

Con il patrocinio del Dipartimento diFisica della Sapienza di Roma

accastampato num. 0, Novembre 2009

Page 4: Accastampato n. 0

Indice num. 0, Novembre 2009

La ricerca scientifica a Roma: informare, orientare, incuriosire

EDITORIALE

La divulgazione della Scienza a partireda chi la fa 3Un’opportunita per gli studenti delle superiori per scoprirela pratica scientifica della propria citta e maturare una sceltaconsapevole del proprio futuro. Una possibilita per glistudenti di Fisica di entrare in contatto con tutte le linee diRicerca attive in Dipartimento e per imparare a divulgare ilproprio lavoro scientifico. accastampato: una rivista curatada studenti per studenti, a partire dal quotidiano lavoro diricerca di Roma, tanto interessante quanto ancora troppospesso sconosciuto

RECENSIONI

Storia del laser 6di M. MitranoBreve storia di un’invenzione che ha cambiato il mondo

ESPERIMENTI

Un palloncino sul phon 7di C. CosmelliCome il getto d’aria del phon tiene il palloncino sospesosopra di se

ONDA LUNGAaccastampato, Creative Commons ePatamu 8di A. BonfortiTutti i contenuti di accastampato sono rilasciati sottolicenza Creative Commons BY–NC–SA e la loro paternitaprotetta da marca digitale grazie a patamu: vediamo cosasignifica. . .

IL RESTO DEL NEUTRINOTecnologie del moderno Cinema 3D 10

di A. CimarelliGli enormi passi avanti fatti dalle tecnologie stereoscopicheaprono finalmente le porte ad una forte espansione dell’in-trattenimento cinematografico tridimensionale

Panoramica sul comporta-mento collettivo animale 15di A. CimarelliCosa hanno in comune gli stormi di uccelli con i banchidi pesci o gli alveari di api? Un comportamento collettivoemergente sorprendentemente simile nonostante le diffe-renze tra le specie

4 accastampato num. 0, Novembre 2009

Page 5: Accastampato n. 0

ONDA LUNGALa riforma dell’Universita Italiana 20di L. BenfattoL’idea stessa di creare una vera competizione tra le varieuniversita, allo scopo di attrarre gli studenti migliori,fallisce miseramente a fronte di un’obiettiva immobilitasociale del sistema italiano

IL RICERCATORE ROMANOLa transizionevetrosa 23di T. ScopignoNonostante un utilizzo molto diffuso dei materiali vetrosi,alcuni aspetti della transizione a questa particolarissimafase della materia non sono ancora pienamente compresi

Alla ricerca deldecadimento proibito 27

di G. Piredda et al.Trovare il decadimento µ→ eγ per andare oltre il ModelloStandard

NANOS GIGANTUMProlusione del corso di Fisica Teoricadi Ettore Majorana 30

di A. CimarelliLa Prolusione di Ettore Majorana del 13 gennaio 1938 peril suo corso di Fisica Teorica all’Universita Federico II diNapoli permette di comprendere le grandi capacita didatti-che del grande scienziato, scomparso misteriosamente nelmarzo dello stesso anno.

EVENTISTARFLAG @ TurinPhoto Festival 34di A. CimarelliIl progetto STARFLAG ha permesso di studiare quantitativa-mente grandi stormi in volo, al Turin Photo Festival le suefotografie stereoscopiche diventano arte figurativa

Page 6: Accastampato n. 0

RECENSIONI

Storia del laserBreve storia di un’invenzione che ha cambiato il mondo

Per completezza e per la sua chiarezza mi permetto di citare la quarta di copertina, pubblicata anchesul sito della casa editrice.

Il termine laser e ormai conosciuto al grande pubblico e molte delle applicazioni della luce che es-so emette sono sotto gli occhi di tutti. Si parla di operazioni chirurgiche e di cure mediche eseguitemediante raggi laser; si sa che le discoteche usano questi raggi per creare particolari effetti di luce eche, per esempio, brevi impulsi di luce, sempre emessi da laser, viaggiando entro fibre di vetro e sosti-tuendosi agli impulsi elettrici, permettono di realizzare collegamenti telefonici. Il laser e l’elementoessenziale delle stampanti dei quotidiani, di quelle dei computer e di alcuni radar e, inoltre, con i suoiraggi si puo tagliare e forare ogni sorta di materiale, leggere CD, registrare, e riprodurre fotografietridimensionali (ologrammi) e fare innumerevoli altre cose. Ma che cosa in effetti sia un laser e comeesso funzioni sono in pochi a saperlo, oltre agli addetti ai lavori. Questo libro cerca di spiegarlo inmodo comprensibile, pur senza prescindere da un certo numero di considerazioni strettamente tecni-che, raccontando come si sia arrivati a costruirlo, insieme al maser, che e il suo gemello nel dominiodelle microonde. La caratteristica dei laser di emettere fasci collimati e colorati deriva dal diversomodo in cui in essi e emessa la luce rispetto alle altre sorgenti. Nel libro si approfondisce cos’e laluce e come viene emessa, e a tale scopo si esamina come si comportano gli atomi, utilizzando alcuniconcetti della meccanica quantistica adatti a descriverli... Nel cercare di capire i vari fenomeni se-guendo un filo storico l’autore ricostruisce, in un certo senso, parte della storia della luce e i primipassi della meccanica quantistica, sia pure a un livello elementare.

Detto questo il libro che sto descrivendo e un bel libro divulgativo che si muove in un segmentoeditoriale sempre piu trascurato ovvero quello del lettore con preparazione scientifica di base medio-alta che desidera approfondire un singolo tema o settore a lui poco noto. Ovviamente e un libro dilettura con un formalismo matematico veramente ridotto all’osso e presente solo qua e la nel testoove necessario. A mio avviso, specialmente all’inizio, l’autore la prende troppo alla larga partendo daGalileo e il metodo scientifico e talvolta si perde in parentesi troppo dettagliate (ad es. il cap. 6 suEinstein). Naturalmente questo e il parere di uno studente del I anno di specialistica e necessariamentesara diverso da quello del lettore non addetto ai lavori. Tuttavia gli ultimi capitoli riscattano tutto iltesto fornendo molti retroscena storici e veramente molte informazioni sulla grande varieta di lasersoggi esistenti. Complessivamente i soldi investiti sono pienamente ripagati da questo saggio veramentecompleto e molto scorrevole nella lettura.Matteo Mitrano

COPERTINA

INDICE

1. Introduzione2. Le teorie ondulatoria e corpuscola-

re della luce3. La spettroscopia

4. La teoria del corpo nero

5. L’atomo di Rutherford e di Bohr6. Einstein7. Einstein e la luce, l’effetto fotoelet-

trico e l’emissione stimolata8. Microonde9. Spettroscopia: atto secondo

10. La risonanza magnetica

11. Il maser12. La proposta per un maser ottico

13. Le disavventure di Gordon Gould14. E finalmente fu il laser!15. A che cosa serve il laser?

IN BREVE

Titolo Storia del LaserAutore Mario BertolottiEditore Bollati Boringhieri

AnnoPaginePrezzo 35.00 e

6 accastampato num. 0, Novembre 2009

Page 7: Accastampato n. 0

ESPERIMENTI

Un palloncino sul phonCome il getto d’aria del phon tiene il palloncino sospeso sopra di se

di Carlo Cosmelli(Professore di Fisica alla Sapienza)

Accendere il phon a mezza forza e tenerlo fermo con il getto d’aria rivolto verso l’alto.Prendere il palloncino e poggiarlo delicatamente nel mezzo del flusso di aria sopra ilphon. Si vedra che il palloncino si mettera in una posizione di equilibrio, piu in alto opiu in basso del punto in cui l’avevate lasciato, e ci rimarra stabilmente.

Suggerimenti ed astuzie

Se il palloncino fosse troppo leggero, cioe se vola via, vuol dire che il getto d’aria e troppo forte. Intal caso ridurre il getto d’aria. Se non fosse possibile, provare ad aumentare la massa del palloncinoinserendo un po’ d’acqua (circa mezzo cucchiaino) dentro di esso prima di gonfiarlo.

Approfondimento

Il palloncino rimane in equilibrio per due ragioni: la prima e semplicemente la forza generata dalflusso d’aria diretto verso l’alto. Il flusso d’aria e piu forte all’uscita del phon e diminuisce di intensitaman mano che ci si allontana dalla bocca del phon. Ci sara un punto in cui la forza esercitata dal flussod’aria e uguale alla forza di gravita che si esercita sul palloncino. In questa posizione il palloncinopotra stare in equilibrio.Tuttavia questo potrebbe essere un punto di equilibrio instabile, per spostamenti laterali. Invece si puovedere che se diamo delle piccole botte al palloncino, questo si sposta dalla posizione di equilibrio,ma tende poi a ritornare verso il centro del getto d’aria, rimanendo sempre in equilibrio.Questo vuol dire che c’e un secondo effetto che mantiene il palloncino in posizione: si tratta dell’ef-fetto combinato del principio di Bernouilli e dell’effetto Coanda. Quello che succede e che l’aria cheesce dal phon crea una specie di guscio intorno al palloncino, dandogli un ulteriore supporto. Pos-siamo accorgerci di questo effetto anche spostando il getto di aria del phon dalla posizione verticale,inclinandolo lateralmente. Si puo vedere come, per angoli non troppo grandi, il palloncino continuaa restare sospeso nel mezzo del getto di aria, anche se ora si trova fuori dalla verticale innalzata dallabocca del phon.Il palloncino puo essere anche sostituito da una pallina da ping-pong, tutto dipende dalla potenza delphon.

Principio di Bernoulli ed effetto Coanda

Esempio dell’effet-to Coanda, da it.wikipedia.org

Un problema con cui ci siamo confrontati tutti? Riuscire a bere da una fontanella senza bagnarsi completamentevolto e maglietta! Perche l’acqua che ci bagna il viso, anziche gocciolare giu dal mento, scorre lungo il collo?L’adesione di un fluido (un liquido o un gas) lungo superfici ricurve prende il nome di effetto Coanda: lo strato delfluido prossimo alla superficie su cui scorre, rallentando per attrito, vincola il movimento degli strati esterni a causadella reciproca attrazione; l’effetto mette in rotazione gli strati esterni verso l’interno, facendo aderire il fluido allasuperficie stessa.Prendete ora tra le dita gli angoli del lato corto di un foglietto di carta (uno scontrino per esempio) e avvicinateli allabocca. Soffiando delicatamente appena sopra il foglio, questo si alzera, restando sospeso a mezz’aria; aumentandola forza del soffio, il foglio iniziera a sbattere freneticamente. Il fluire dell’aria sul lato superiore del foglio causa,infatti, una diminuzione della pressione rispetto al lato inferiore che, pertanto, e spinto verso l’alto. Il principio diBernoulli garantisce infatti che ad ogni aumento della velocita di un fluido corrisponde una diminuzione della suapressione e viceversa.Effetto Coanda e principio di Bernoulli non sono indipendenti, ma possono essere descritti come casi particolari diuna teoria generale dei fluidi, fondata sui lavori degli scienziati Claude-Louis Navier e George Stokes.

SCHEMA

MATERIALE

• 1 palloncino gonfiato poco (10÷15cm)

• 1 phon elettrico

ARGOMENTO

• Equilibrio di un corpo in un fluido

• Fluidi reali

accastampato num. 0, Novembre 2009

Page 8: Accastampato n. 0

accastampato, CreativeCommons e PatamuUna questione di licenze. . .

Adriano Bonforti(Studente di Fisica, Terza Universita degli Studi di Roma)

La rivista accastampato ha scelto di liberare sin dal suoprimo numero il proprio contenuto con licenze Crea-tive Commons (CC), attraverso la consulenza e la col-laborazione del sito patamu.com, che ha contestual-

mente fornito un servizio di tutela dal plagio. Per una rivista di ca-rattere scientifico divulgativo la scelta non poteva essere migliore,poiche la Scienza ed il Sapere in generale sono o dovrebbero esse-re per definizione libere da vincoli di diffusione ed elaborazione.D’altra parte la storia della scienza e un’ottima e convincente di-mostrazione di quanto virtuose possano essere la condivisione ela libera fruizione del sapere per il progresso scientifico. In que-sto articolo proponiamo una breve panoramica sulle licenze CC esul servizio offerto da Patamu.

Figura 1 Logo di patamu.com

Creative Commons Public Licenses

Le Creative Commons Public Licenses (CCPL) sono delle parti-colari licenze che permettono di distribuire un’opera d’arte o diingegno svincolandola parzialmente dalle rigide imposizioni deldiritto d’autore tradizionale (copyright). La loro nascita si ispiraal principio di natura legislativa in base al quale chi crea un’ope-ra di ingegno, una volta dimostratane la paternita, puo disporredi essa come meglio crede, riservandosene i diritti in toto o soloin parte. Le licenze CCPL si basano quindi sul principio “alcu-ni diritti riservati” anziche “tutti i diritti riservati”: attraverso diesse l’autore svincola la propria opera secondo determinate mo-

dalita, concedendone ad esempio la diffusione gratuita e libera inassenza di scopo di lucro. In altre parole, per mezzo delle CCPLl’autore da esplicitamente il consenso affinche la sua opera possacircolare ed essere diffusa piu o meno liberamente, disponendocome vuole dei propri diritti. Cio in contrapposizione al caso delcopyright tradizionale, nel quale cio non e possibile.

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

accastampato ha scelto di liberare sin daquesto primo numero il propriocontenuto con licenza Creative

Commons- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Per questo ci si riferisce spesso alle licenze di Creative Commonscome licenze “copyleft”. Per favorire il piu possibile la libera cir-colazione di questa rivista e dei suoi contenuti, abbiamo scelto diliberarla attraverso la licenza CC di tipo BY-NC-SA (attribution,non commercial, share alike): significa che tutti i suoi contenu-ti possono essere riprodotti e diffusi, a condizione che cio nonavvenga per scopi commerciali e che venga sempre indicato l’au-tore. Le opere possono inoltre essere modificate a condizione chesussista l’assenza di lucro e che l’autore e l’opera originaria ven-gano sempre indicati ed informati ove possibile; infine, l’operaderivata deve essere a sua volta liberata con le stesse condizioni.

Figura 2 Locandina Creative Commonsi (da OilProject)

8 accastampato num. 0, Novembre 2009

Page 9: Accastampato n. 0

ONDA LUNGA

Patamu

Spendiamo infine qualche parola per presentare il sito Patamu,attualmente in versione beta, che oltre ad offrire consulenza perquanto riguarda le tematiche CC e la cultura libera in generale,permette di integrare le licenze CC apponendo ad ogni opera in-viata una sorta di timbro temporale informatico con validita legalericonosciuta dallo Stato Italiano.Il servizio al livello base e gratuito e permette di tutelare dal pla-gio e di rilasciare contestualmente in Creative Commons qualsia-si opera artistica o di ingegno: opere musicali, foto, ma anchelibri, articoli di giornale o di blog, articoli scientifici e quant’al-tro. Per case editrici, etichette, associazioni, societa, o per chiun-que volesse accedere a servizi piu specifici e mirati, sara possibileabbonarsi con una piccola somma a vari servizi avanzati.Pur essendo possibile su Patamu la semplice tutela dell’opera, ab-biamo scelto di offrire il servizio gratuitamente per chiunque siadisposto a liberare contestualmente l’opera in CC. Questa scelta estata certamente fatta per incoraggiare e favorire la diffusione del-la cultura cosiddetta “open source”, ma c’e anche un’altro motivo:capita spesso infatti che le persone rimangano diffidenti di frontealla dicitura “alcuni diritti riservati” e ritengano che il modo piupratico e sicuro di tutelare la propria opera sia quello di rimaneredetentore di tutti i diritti. Paradossalmente, pero, in questo mo-do sono essi stessi a frenare la diffusione della propria opera, inquanto il copyright tradizionale ne rende piu difficoltosa la diffu-sione – ad esempio via internet, o via radio – anche in assenza dilucro.

Il copyleft e quindi, a nostro avviso, anche il modo piu pratico emoderno per permettere di promuovere e far conoscere ad un nu-mero piu ampio possibile di persone il proprio prodotto artistico.In questo contesto la tutela dal plagio fornita dal sito non diventapiu un’azione di tutela dell’autore fine a se stessa, ma si trasfor-ma in un mezzo per diffondere le proprie opere senza il timore diessere plagiati, favorendo la libera circolazione della creativita edella cultura sotto qualsiasi forma e contribuendo ad innescare uncircolo virtuoso da cui possono trarre vantaggio autori ed utentidell’opera allo stesso tempo.Per richiedere qualsiasi informazione sulle tematiche CC o suiservizi del sito, o per partecipare alla fase di test della versionebeta, siete i benvenuti su patamu.com.

Bibliografia

Creative Commons: www.creativecommons.it

Copyleft: www.copyleft-italia.it

Patamu.com: www.patamu.com

Sull’autore

Adriano Bonforti ([email protected]) e espertoin licenze di copyleft ed e amministratore del sito www.

patamu.com

Page 10: Accastampato n. 0

Tecnologie del modernoCinema 3DTeoria e tecniche alla base della nuova era dell’intrattenimento digitale

Alessio Cimarelli(Studente di Fisica)

La visione tridimensionale o, in altre parole, la perce-zione della distanza a partire da una proiezione bidi-mensionale della luce in ingresso e basata sulle leggidella stereometria. Il supporto puo essere la retina,

una pellicola fotografica o una CCD, non c’e differenza: la stessascena fotografata contemporaneamente da due posizioni legger-mente diverse, a esempio meno di una decina di centimetri nel ca-so degli occhi, produce due immagini in cui gli oggetti piu vicinipresentano una traslazione laterale relativa all’interno del campovisivo maggiore rispetto agli oggetti piu lontani (vedi Figura 1).

Figura 1 Sovrapposizione di due fotogrammi scattati da due posizionidifferenti, in cui il borotalco e centrato e a fuoco.

Attraverso questo shift relativo e possibile ricavare con una certaprecisione la distanza dell’oggetto in questione: nel caso di mac-chine fotografiche, conoscendo solo la distanza tra gli obiettivi ele loro inclinazioni relative e applicando semplici equazioni. Ilcervello umano riesce a risolvere naturalmente queste equazionia partire dal secondo, terzo anno di eta. Nel cinema 3D vero, cioene d’animazione, ne adattato in post-produzione, il film viene gi-rato contemporaneamente da due videocamere ad alta risoluzionee velocita, montate l’una accanto all’altra con una certa distanzatra gli obiettivi. Macchine di questo tipo molto diffuse sono peresempio la Red One e la Silicon Imaging SI-2K Digital CinemaCamera (vedi Figura 2).

Figura 2 Alcuni esempi di videocamere dedicate al cinema 3d (quellecon doppio obiettivo) o adattate per lo scopo in alcuni recenti film 3d.

In fase di riproduzione si vuole far giungere all’occhio destro del-lo spettatore il film girato dalla macchina destra e viceversa, inmodo che il cervello possa combinare naturalmente le due im-magini e ricostruire la scena tridimensionale. Ci sono molti mo-di per ottenere questo effetto: mediante filtri colorati (anaglifia),filtri polarizzati circolarmente o linearmente oppure filtri shutterlcd, la cui trasparenza varia alternativamente in sincronia con leimmagini.

Anaglifia

Si tratta del 3D tradizionale e piu conosciuto, che ha pero il gros-so limite di non poter rendere scene colorate, in quanto i filtriutilizzati lavorano proprio in frequenza su due soli colori (vediFigura 3). La luce infatti non e altro che un’oscillazione del cam-po elettromagnetico e per questo e detta onda elettromagnetica:i campi elettrico e magnetico oscillano in direzioni perpendico-lari, tra loro e rispetto alla direzione di propagazione dell’onda.La frequenza di quest’ultima e semplicemente il numero di oscil-lazioni che compie nell’unita di tempo. L’unita di misura delleoscillazioni e l’Hz, un’oscillazione al secondo. In questo ambi-to si usa molto il terahertz (THz), che corrisponde a 109 Hz e aduna lunghezza d’onda di 3×105 nm (nanometri, 10−9 m). Le duegrandezze sono legate tra loro dalla semplice relazione λ = c

ν, con

λ lunghezza d’onda, c velocita della luce, ν frequenza. L’insiemedei valori della frequenza della luce viene detto spettro e la fine-stra del visibile (ovvero le frequenze della luce a cui i nostri occhisono in media sensibili) va dai 400 ai 790 THz o, se si preferisce,dai 750 ai 380 nm. Il cervello percepisce le diverse frequenzesotto forma di colori, dal rosso (basse frequenze, grandi lunghez-ze d’onda) al violetto (alte frequenze, piccole lunghezze d’onda),come evidenziato nella Figura 4.

10 accastampato num. 0, Novembre 2009

Page 11: Accastampato n. 0

IL RESTO DEL NEUTRINO

Figura 3 Esempio di anaglifo stampato su carta.

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

La stereoscopia permette di ricavare ladistanza di un oggetto da una coppia diimmagini prese da due posizioni diverse

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Le due immagini stereoscopiche prendono il nome di stereogram-mi e vengono stampate sulla stessa foto, ma mediante due coloricomplementari, tipicamente rosso e verde. I filtri sono costituitida una coppia di lenti colorate montate su di un paio di occhiali(vedi Figura 5). Questi filtri sono costituti da sostanze che assor-bono o riflettono tutto lo spettro tranne la piccola porzione rela-tiva al proprio colore, che viene trasmessa e/o in parte riflessa.Essendo verde e rosso complementari, quindi lontani in frequen-za, un filtro rosso assorbe tutta la luce verde e viceversa. Cosı adogni occhio giunge solo la sequenza di immagini che gli spetta eil cervello interpreta la differenza tra i due flussi come distanzadegli oggetti. Il sistema e estremamente economico, ma ormaisuperato.

Luce polarizzata e la soluzione RealD

La resa dei colori e invece ottima mediante filtri che lavorano inpolarizzazione, nome con cui si indica la direzione di oscillazio-ne del campo elettrico. Normalmente la luce a cui siamo abituatinon e polarizzata, nel senso che e composta da una sovrapposi-

Figura 4 Spettro della luce, e evidenziato l’intervallo a cui l’occhio uma-no e in media sensibile. Qui sono riportati i valori della lunghezza d’ondain nm (nanometri, 10−9 m) invece delle frequenze.

zione di raggi luminosi i cui campi sono diretti casualmente l’unorispetto all’altro. Una luce si dice invece polarizzata se la direzio-ne di oscillazione del campo elettrico e costante nel tempo (tra ledue situazioni ce ne sono infinite intermedie, dette di luce parzial-mente polarizzata). Dato che campo magnetico ed elettrico sonoperpendicolari, qualsiasi direzione sul piano che individuano puoessere scomposta in due contributi lungo due assi perpendicolaria scelta. Mediante speciali filtri e possibile selezionare una parti-colare direzione di polarizzazione e scartare l’altra: e il caso delleben note lenti Polaroid (vedi Figura 6).

Figura 5 Schema di funzionamento del tradizionale cinema 3d.

Nel caso del cinema 3d, quindi, i due filmati, uno per l’occhiodestro e l’altro per quello sinistro, vengono proiettati contempo-raneamente sullo schermo da due proiettori sincronizzati: di fron-te ad ognuno di essi e posto un polarizzatore, lineare o circolare.Nel primo caso i campi elettrico e magnetico oscillano in fase,cioe raggiungono il loro valore massimo insieme, mentre nel se-condo in controfase: quando uno e massimo, l’altro e minimo eviceversa.In questo modo agli occhi dello spettatore la luce dei due filmatigiunge con due polarizzazioni indipendenti e le lenti montate op-

accastampato num. 0, Novembre 2009 11

Page 12: Accastampato n. 0

IL RESTO DEL NEUTRINO

Figura 7 Occhiali polarizzatori del sistema RealD.

portunamente sugli occhiali selezionano quella corretta per ogniocchio. In altre parole, di fronte ad ogni proiettore c’e lo stes-so filtro Polaroid montato davanti all’occhio ad esso associato.La scelta dei due tipi di polarizzazione, lineare o circolare, none equivalente: nel primo caso i filtri del proiettore e dell’occhioassociato sono uguali, cioe lasciano passare esattamente le stesseimmagini, solo se la testa dello spettatore e perfettamente verti-cale e quindi allineata con il filtro del proiettore. In questo ca-so piegare la testa di lato significa per ogni occhio vedere partedel filmato destinato all’altro perche i due filtri inclinati tra lo-ro mescolano le due polarizzazioni, fino a che l’effetto 3d nonsvanisce completamente. Nel caso della polarizzazione circolarequesto problema non esiste, ma in compenso i filtri relativi sonopiu costosi e un po’ meno efficienti: e il caso comunque della tec-nologia piu diffusa al momento, RealD (vedi Figura 7), che tral’altro utilizza un solo proiettore a doppia velocita (48 fps, fra-mes al secondo, con fotogrammi destro e sinistro alternati) e unfiltro Polaroid oscillante, che polarizza in maniera opposta i foto-grammi alternati. Cio diminuisce sicuramente i costi, ma riduceanche sensibilmente la luminosita delle immagini, anche del 50%,a causa del lavoro dei filtri.- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

I filtri Polaroid permettono ad ogni occhiodi vedere solo il filmato ad esso dedicato

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Un elemento importante per i sistemi basati sulla polarizzazionedella luce e lo schermo, in quanto la luce proiettata, prima di giun-gere agli occhi degli spettatori, deve essere da esso riflessa. Unasuperficie qualsiasi, pero, come quella degli schermi classici, faperdere irrimediabilmente polarizzazione alla luce incidente: larugosita della superficie in un certo senso mescola le carte, inquanto ogni microsuperficie piana riflette la luce polarizzandolain parte lungo la direzione parallela a se, che e diversa dalla dire-zione di polarizzazione incidente e soprattutto casualmente diretta(vedi Figura 8).

Sono quindi necessari schermi speciali, detti silverscreen perchetrattati con particelle d’argento che, essendo un metallo, riflet-te quasi tutta la luce, lasciandone cosı intatta la polarizzazione.Schermi costosi e che soprattutto non sono adatti alle classicheproiezioni 2d, perche troppo luminosi: necessitano quindi di salededicate alle sole proiezioni 3d.

Figura 6 Schema intuitivo del funzionamento di un filtro Polaroid.

Luce colorata e la soluzione Dolby3d

La tecnologia concorrente alla RealD piu accreditata al momentoe quella della Dolby, Dolby3D (vedi Figura 9), basata invece su unavanzato sistema di filtri in frequenza e il cui proiettore produceben 144 fps, 72 per ogni occhio: ogni frame viene ripetuto trevolte consecutivamente.

Figura 8 Una luce incidente all’angolo di Brewster (specifico per ognimateriale e dipendente anche dalla frequenza) viene riflessa e assorbitain proporzioni diverse a seconda della polarizzazione.

12 accastampato num. 0, Novembre 2009

Page 13: Accastampato n. 0

IL RESTO DEL NEUTRINO

Figura 9 Occhiali con filtri dicroici del sistema Dolby3D.

Come nel caso RealD, il proiettore non e dedicato, purche assicu-ri velocita e risoluzioni richieste. Tra la lampada e l’ottica vieneposto un filtro cromatico rotante (un disco diviso in sei settori co-lorati) che per ogni frame filtra un colore diverso. Tre settori sonorosso, verde e blu, gli altri hanno gli stessi colori, ma di una tona-lita leggermente piu chiara. Su uno schermo bianco normale arri-vano in un 24-esimo di secondo le sei immagini, riflesse verso glispettatori. Le lenti degli occhiali sono filtri dicroici composti daqualche decina o centinaia di strati atomici depositati sotto vuotosu un substrato di vetro. Hanno una finestra di trasmissione infrequenza molto stretta proprio attorno ai colori del filtro rotante,controllata con molta precisione variando lo spessore degli stratidepositati. Il resto della luce viene riflesso e cio, come nel caso diRealD, causa una diminuzione notevole della luminosita. In que-sto modo, comunque, ad ogni occhio giungono solo i rispettivitre fotogrammi colorati, che il cervello combina in un’immaginetridimensionale a colori reali (vedi Figura 10).

I vantaggi di questa soluzione rispetto alle concorrenti sono mol-ti: occhiali passivi, quindi economici quasi quanto quelli dellaRealD, costi contenuti, ma soprattutto la possibilita di adattarein poco tempo qualsiasi sala cinematografica 2d, purche dotata diun proiettore digitale moderno, in maniera non permanente grazieall’uso dello schermo standard e alla rimovibilita del filtro rotan-te colorato. Un punto a favore molto importante per la rapidaestensione di questa tecnologia.

Schermi LCD

Un’ulteriore tecnologia 3D, messa in campo per prima dalla nVi-dia per il settore videoludico, si basa su particolari occhiali atti-vi le cui lenti, dette shutters, possono oscurarsi alternativamente,passando da uno stato di trasmissione totale della luce ad unodi riflessione in pochi centesimi di secondo. Le lenti sono co-stituite da uno strato di cristalli liquidi che si orientano opportu-namente quando sono sottoposti ad una differenza di potenziale,esattamente come i ben conosciuti schermi LCD (Liquid CrystalDisplay). Nel caso in esame rendono semplicemente la lente tra-sparente o opaca. Un proiettore a doppia velocita (48 fps) alterna

Figura 10 Schema di funzionamento del sistema Dolby3D. 1- Coloriprimari nei proiettori del cinema 2D standard. 2- Nel Dolby3D ognicolore primario e separato in due tonalita, una per l’occhio sinistro el’altra per il destro. 3- Dato che per ogni occhio sono usati tutti e tre icolori primari, la resa cromatica finale e realistica.

i fotogrammi destinati ai due occhi e gli occhiali sono ad esso sin-cronizzati mediante un sistema wireless, in modo da selezionareil giusto fotogramma per ogni occhio (vedi Figura 11).

Le lenti sono basate sulle peculiari proprieta ottiche dei cristalliliquidi, che rispondono a campi elettrici esterni orientandosi pa-rallelamente ad essi. Tale liquido e intrappolato fra due superficivetrose provviste di contatti elettrici, ognuno dei quali comandauna piccola porzione del pannello identificabile come un pixel.Sulle facce esterne dei pannelli vetrosi sono poi posti due filtripolarizzatori disposti su assi perpendicolari tra loro. I cristalli li-quidi, quando sono orientati casualmente, sono in grado di ruotaredi 90◦ la polarizzazione della luce che arriva da uno dei polarizza-tori, permettendole di passare attraverso l’altro. Quando il campoelettrico viene attivato, invece, le molecole del liquido si allinea-no parallelamente ad esso, limitando la rotazione della luce iningresso. Ad un allineamento completo dei cristalli, corrispondeuna luce polarizzata perpendicolarmente al secondo polarizzato-

accastampato num. 0, Novembre 2009 13

Page 14: Accastampato n. 0

IL RESTO DEL NEUTRINO

re, che quindi la blocca del tutto (pixel opaco). Controllando latorsione dei cristalli liquidi in ogni pixel, proporzionale al campoelettrico applicato, si puo dunque regolare quanta luce far passare.

Figura 11 Alcuni esempi di occhiali LCD Shutters.

Questa tecnologia, che non fa uso di filtri ne in frequenza ne inpolarizzazione, risolve alla radice alcuni problemi, come la nonperfetta resa cromatica del primo caso, ma riduce sensibilmentela luminosita e ha il costo piu alto in assoluto (ogni occhiale puoraggiungere i 100$). E pero la piu accreditata, come dimostral’offerta dedicata all’Home Enterteinment di nVidia, per il pros-simo futuro dell’Home Cinema 3D, soprattutto alla luce dei mo-derni schermi LCD o al plasma con frequenze di aggiornamentodi 200 Hz o piu.A margine segnalo che la Creative offre una soluzione ulteriore eradicale con il suo nuovo sistema MyVu, in cui all’interno degliocchiali sono montati veri e propri schermi LCD opportunamentemessi a fuoco da lenti ottiche: semplicemente infilandosi gli oc-chiali, si puo vedere il filmato scelto come in un sistema head-up(schermo virtuale sovrapposto alla realta esterna) con una risolu-zione di 640x480 a 24 bit di profondita di colore e una frequenzadi aggiornamento di 60Hz, vale a dire una qualita equivalente aldvd, ma non ancora all’alta definizione del blu-ray.Per ora non si parla di funzionalita 3D, ma e evidente che unsemplice sistema di input a doppio canale video, uno per ognischermo, lo permetterebbe. Soluzione sicuramente interessanteper l’intrattenimento privato, a differenza evidentemente di quellocinematografico.

Commenti

A mio avviso nelle tecnologie appena elencate c’e un problemadi fondo che non e legato alla particolare implementazione usata,ma proprio alle caratteristiche intrinseche della fotografia e dellastereoscopia. Il sistema visivo umano e tale che la messa a fuocoe automatica e segue il processo attentivo: il punto della scena sucui poniamo attenzione e sempre messo a fuoco (nei soggetti sanio portatori di occhiali correttivi, naturalmente), a meno che noncerchiamo consapevolmente di vedere zone sfocate dell’immagi-ne (il classico caso delle gocce su una finestra). Nella fotogra-fia (sia da stampa che cinematografica), invece, l’estensione dellazona messa a fuoco (profondita di campo) e limitata, soprattutto

per scene miste con oggetti sia in primo piano che sullo sfondo.Guardando una foto o un film bidimensionale noi vediamo le zonesfocate e non possiamo ovviamente metterle a fuoco ulteriormen-te. Usiamo pero quest’informazione per ricostruire idealmente ledistanze relative tra i vari oggetti, partendo dal presupposto chegli oggetti piu lontani siano piu sfocati rispetto all’oggetto in pri-mo piano, a fuoco. Nel caso del cinema 3D, pero, noi gia vediamouna scena tridimensionale e l’informazione data dalle zone fuorifuoco non serve. Porre quindi l’attenzione su queste zone da fasti-dio, soprattutto se ci sono oggetti in movimento, che evidenzianol’omonimo effetto (motion blur, in inglese). Curiosamente questopermette al regista, che decide dove mettere a fuoco la scena, dicatturare molto di piu l’attenzione dello spettatore sui particolariche gli interessa sottolineare, quasi costringendolo a guardare cioche vuole.

Bibliografia sparsa

Anaglifia: http://en.wikipedia.org/wiki/Anaglyph_image

Semplice tutorial per realizzare stereogrammi: http://dicillo.

blogspot.com/2007/07/tutorial-stereografia-come-realizzare.html

Silicon Imaging SI-2K Digital Camera: http://www.siliconimaging.

com/DigitalCinema/SI_2K_key_features.html

3dStereo.it: http://www.3dstereo.it/index.html

Bob’s trip into Dolby3D Technology: http://www.moviestripe.com/

dolby3d/

The Dolby solution to Digital 3D: http://www.edcf.net/edcf_docs/

dolby-3d.pdf

Dolby3D: http://www.dolby.com/consumer/technology/dolby-3d.html

Filtri dicroici: http://en.wikipedia.org/wiki/Dichroic_filter

LCD: http://it.wikipedia.org/wiki/LCD

Creative MyVu: http://www.tecnologiecreative.it/schede/MyVu_Edge_

301/index.html

Sull’autore

Alessio Cimarelli ([email protected])si e laureato in Fisica nel settembre 2009 alla Sa-pienza di Roma, con una tesi sul comportamento col-lettivo degli stormi di uccelli in volo (progetto Star-flag). E tra gli ispiratori e gli amministratori del por-tale accatagliato.org. Al momento frequen-ta il Master in Comunicazione Scientifica alla Sis-sa di Trieste, collaborando attivamente con il portaleaccatagliato.org e la rivista accastampato.

14 accastampato num. 0, Novembre 2009

Page 15: Accastampato n. 0

Panoramica sul comporta-mento collettivo animaleUna grande varieta di specie animali mostrano spesso comportamenti di gruppo simili

Alessio Cimarelli(Gruppo STARFLAG, CNR/INFM)

Con il termine comportamento collettivo si intendel’emergenza di proprieta di un gruppo irriducibili aquelle dei singoli individui che lo compongono, ca-ratteristiche per lo piu dipendenti dalle mutue intera-

zioni tra di essi. Condizione fondamentale per un comportamentoemergente e che ogni individuo interagisca con gli altri alla pa-ri, con le stesse modalita, che non ci siano cioe elementi primari(ad es. leader) che dettino il comportamento ad altri elementisecondari, ne elementi esterni che influiscano globalmente sul si-stema, individuo per individuo indipendentemente. Le interazionihanno normalmente natura locale, vale a dire che ogni individuointeragisce con un numero limitato di altri suoi simili, rimanendosostanzialmente all’oscuro del comportamento globale del grup-po a cui appartiene, molto piu vasto della sua sfera di interazione.Spesso l’interazione con un ambiente esterno dinamico e centra-le, specialmente nei sistemi biologici. Il principale indizio dellapresenza di un comportamento collettivo e l’apparire di patternsmacroscopici ordinati, di configurazioni particolari e persistentidel sistema su scala maggiore dell’estensione dei singoli indivi-dui. Questa e una condizione necessaria, ma non sufficiente, inquanto ci sono casi in cui e sufficiente il teorema del Limite Cen-trale (box a pag. 19) dei processi aleatori per spiegare fenomeniordinati e apparentemente coordinati (2).

I principi base dell’auto-organizzazione, condizione primaria delcomportamento collettivo emergente, possono essere individuatiin feedback positivi e negativi, in meccanismi di amplificazionedi fluttuazioni casuali, di inibizione, catalizzazione, risposta a so-glia, ridondanza e sincronizzazione (2). Tutta la ricerca che inquesti decenni e andata sotto il nome di complessita ha insegnatoche meccanismi di questo genere possono prodursi a partire daelementi legati tra loro da semplici regole, per lo piu di naturanon lineare. Ha insegnato come normalmente ci sia un parame-tro critico, interno o esterno al sistema, il cui valore permette lapresenza o meno di uno stato ordinato, l’emersione quindi di uncomportamento collettivo: la teoria delle transizioni di fase e deifenomeni critici e una delle maggiori conquiste della Fisica mo-derna e sta dimostrando di essere applicabile con successo a tuttii fenomeni che mostrino auto-organizzazione.

Nel caso di sistemi biologici, pero, non si puo prescindere dal-l’evoluzione e dalla selezione naturale dovute ad un’interazionecontinua e profonda con l’ambiente, per cui devono essere consi-derati anche meccanismi di massimizzazione della sopravvivenzae minimizzazione dei rischi, sia per gli individui, sia per l’interogruppo. In un’ottica evolutiva l’aggregazione nel mondo biolo-

gico porta all’emersione di nuove funzioni che il gruppo riescead espletare molto meglio del singolo individuo o che sono addi-rittura fuori dalla portata di quest’ultimo. Esempi sono l’abilitadi costruire un formicaio, di regolare termicamente un alveare,di procacciarsi il cibo, di difendersi dai predatori, di aumentarel’efficacia delle scelte in un processo decisionale complesso (2).

Figura 1 A sinistra, Lunepithema humile; a destra, code di turisti.

Tutto cio puo far pensare che la selezione naturale abbia indivi-duato nel comportamento collettivo un efficace mezzo per soprav-vivere meglio all’ambiente, ma spesso questa connessione non eaffatto immediata. Ad esempio l’aggregarsi in certi casi aiuta adifendersi dai predatori, ma in altri li attira: si pensi ai banchi dipesci, un incubo per gli squali, ma una benedizione per i pescatori.Inoltre i singoli animali sono molto piu complessi di qualsiasi mo-lecola e nel comportamento collettivo le dinamiche sociali devonosempre confrontarsi con quelle individuali: ad esempio la ricer-ca di cibo all’interno di una mandria e piu efficiente, ma in casodi risorse scarse richiede la suddivisione tra tutti i suoi membri.Questo che potremmo definire dilemma dell’individualita si puotradurre nella domanda: su che scala agisce la selezione? Qualivariabili determinano il punto oltre il quale il comportamento col-lettivo si esplica in configurazioni realmente adattative e con qualimodalita? Queste domande appaiono ancora piu importanti allaluce degli studi che hanno mostrato come l’auto-organizzazionesia un ingrediente centrale anche a livello genetico e di sviluppodell’embrione.Nel seguito, senza alcuna pretesa di essere esaustivo o esauriente,presentero e descrivero una parte degli studi sulla grande varietadi fenomeni biologici che a buon titolo rientrano nella categoriacomportamento collettivo, sia dal punto di vista biologico e spe-

accastampato num. 0, Novembre 2009 15

Page 16: Accastampato n. 0

IL RESTO DEL NEUTRINO

Figura 2 A sinistra, alveare di api; a destra, traffico a Los Angeles.

rimentale, che da quello matematico e computazionale. Il tuttocorredato da suggestive immagini che appartengono alla nostraesperienza quotidiana, ma che celano fenomeni naturali ancoranon del tutto compresi.

Colonie di formiche

Una delle prime evidenze della presenza di meccanismi di auto-organizzazione nel mondo biologico si e avuta studiando le formi-che (famiglia delle Formicidae, a cui appartengono piu di 12000specie componenti il 10% dell’intera biomassa animale e il 50%di quella degli insetti) e il loro sistema di comunicazione e coordi-namento basato su tracce chimiche di feromone. In molte speciele formiche operaie (foragers) rilasciano durante il loro cammi-no una sostanza volatile rilevabile dalle altre, con cui riescono atracciare una pista invisibile dal formicaio alle risorse di cibo. Es-sendo volatile, la persistenza della pista dipende dalla frequenzadel suo utilizzo da parte delle formiche, che la rafforzano seguen-dola. Questo e un tipico esempio di feedback positivo, unitamentead un meccanismo di inibizione (la volatilita del feromone). Lapossibilita che si instauri un procacciamento stabile di cibo ba-sato sulle tracce di feromone dipende fortemente dal numero dioperaie impegnate in questo compito, o in altre parole dalla di-mensione del formicaio: vari esperimenti hanno dimostrato che ilpassaggio da una ricerca individuale e casuale ad una basata sul-le tracce chimiche ha le stesse caratteristiche delle transizioni difase del primo ordine, confermate anche da simulazioni apposite(vedi box a pagina 26).

Storicamente lo studio delle societa di insetti e considerato allabase del paradigma dell’auto-organizzazione, perche inizialmen-te le incredibili capacita del formicaio o dell’alveare nel risolve-re problemi molto al di la delle capacita della singola formicao ape apparivano incomprensibili senza appellarsi a improbabili

capacita percettive e comunicative della regina. Poi, attraversoosservazioni, modelli e soprattutto un cambio di paradigma inter-pretativo, e stata individuata tutta una serie di abilita e comporta-menti con alla base meccanismi auto-organizzativi. Ad esempiola presenza di fenomeni di biforcazione e di rottura spontanea diuna simmetria: in un classico esperimento si costruiscono due vieidentiche ma alternative tra il formicaio e una risorsa di cibo e siscopre che, superato un certo numero di operaie, l’utilizzo primasimmetrico di esse viene a mancare in favore di un solo cammino(cfr. Figura 1). In questo caso le leggere differenze iniziali nelnumero di formiche che si dirigono da una parte o dall’altra di-vengono determinanti per la scelta finale del percorso. Da notareche se le due vie sono diverse, per esempio una piu lunga del-l’altra, la deposizione del feromone fa sı che sia piu concentratolungo la via piu breve e che quindi a regime sia sempre questa lapiu usata dalle operaie.E interessante anche un altro esperimento che dimostra come siaimportante nei sistemi biologici un buon bilanciamento tra com-portamento sociale e individuale, quest’ultimo modellizzabile inqualche caso come rumore statistico. Tale concetto e chiarito daun semplice esempio. Introducendo una risorsa di cibo nei pressidi un formicaio, dopo qualche tempo una formica scout la indivi-duera e, nel caso ci siano abbastanza operaie, si formera una trac-cia persistente e un flusso stabile di cibo. Introducendo ora unanuova risorsa piu energetica, la possibilita che il formicaio la sco-pra e la sfrutti dipende dall’accuratezza delle formiche nel seguirela vecchia traccia. Se fossero tutte infallibili, infatti, non abban-donerebbero mai un percorso gia fissato. Solo se le caratteristichecomportamentali individuali sono abbastanza forti le operaie so-no invece in grado di stabilire una nuova traccia verso la nuovarisorsa, abbandonando la vecchia (3).Da quando il meccanismo delle tracce chimiche e stato scoperto,si e dimostrato che e alla base di numerose abilita delle formiche:raccolta di cibo, ottimizzazione dei percorsi anche sulla scala dei

Figura 3 Esempi di configurazioni auto-organizzate nelle colonie di for-miche (3). A sinistra, selezione spontanea di un percorso verso il ciboattraverso un ponte a diamante da parte di Lasius niger; a destra, goc-ce di Lunepithema humile cadono non appena raggiungono una tagliacritica.

16 accastampato num. 0, Novembre 2009

Page 17: Accastampato n. 0

IL RESTO DEL NEUTRINO

Figura 4 A sinistra, stormo di pipistrelli; a destra, sciame di locuste.

chilometri (4), strategie di combattimento, costruzione di formi-cai sotterranei. Appare ora chiaro del perche quello degli insettisia un esempio paradigmatico: a fronte di interazioni non linearilocali dirette (contatto e sfregamento) e indirette (deposito di fero-mone), grazie a meccanismi di feedback positivo (rafforzamentodella traccia) e negativo (volatilita del feromone), si produce unqualche tipo di transizione di fase dipendente dalle dimensionidel formicaio, da cui emergono abilita collettive che amplificanoenormemente le capacita dei singoli insetti.

Sciami di locuste

Le locuste sono insetti molto particolari il cui comportamento col-lettivo e purtroppo tristemente famoso: per lunghi periodi dellapropria vita sono insetti solitari, che tendono a mantenere territo-ri separati l’uno dall’altro, ma in vari momenti attraversano fasidi aggregazione, formando sciami di miliardi di individui capacidi devastare completamente qualsiasi terreno attraversino, inclu-si naturalmente quelli coltivati dall’uomo (5). Per avere un’ideadell’imponenza di questi sciami, le loro dimensioni possono rag-giungere i 1000km2 con una densita media di ben 50 milioni dilocuste per km2, viaggianti a 10 - 15 km/h per migliaia di km:tenendo conto che ogni insetto mangia l’equivalente del propriopeso al giorno, si sta parlando di un consumo dello sciame pari a200 milioni di kg al giorno! Le dinamiche interne di questi sciamisembrano simili a quelle dei fluidi e sono trattabili matematica-mente in modo analogo, cioe mediante modelli continui, graziealle loro dimensioni e densita. Il principale problema e capire co-me possa mantenersi la coesione dello sciame su dimensioni cosıgrandi rispetto a quelle del singolo insetto e i meccanismi chesono alla base della transizione alla fase di aggregazione.

Banchi di pesci

Tra le innumerevoli specie di pesci molte presentano comporta-menti di aggregazione, che originano da interazioni diverse daquelle viste per le formiche.Non si tratta ora di utilizzare l’ambiente come deposito del pro-prio segnale perche l’interazione e diretta, riassumibile nella ter-

na di regole repulsione-allineamento-attrazione, ognuna agente ascale differenti. La fase ordinata e individuata dal grado di alli-neamento dei pesci e anche in questo caso sono stati forniti in-dizi della presenza di una transizione dal disordine all’ordine alvariare della densita.I primi tentativi di analisi quantitativa risalgono a meta degli anni’70, con un lavoro di Graves in cui si presenta un setting speri-mentale originale per fotografare banchi di pesci nel loro ambien-te naturale e stimarne densita e distanza media di primo vicino.Dal 1983 si inizia ad utilizzare la tecnica stereoscopica per rico-struire le posizioni individuali dei pesci all’interno del banco, ot-tenendone una stima della densita, delle distanze reciproche, delladistanza media di primo vicino, della forma e delle proporzioni.Vengono utilizzate tecniche di videofotografia stereo e un algorit-mo di tracking per ricostruire le velocita dei pesci ed individuarecosı l’emergenza di una fase con fortes allineamento a partire dal-le interazioni di primo vicino in tre dimensioni, ma limitandosi asoli 8 pesci.

Figura 5 Qualche esempio suggestivo di banchi di pesci nella loro fasedi aggregazione.

Sono poi videoregistrati gruppi di Nile Pilatias (Oreochromis ni-loticus L.) di un centinaio di elementi, costretti pero a muoversi indue dimensioni all’interno di una vasca opportunamente proget-tata. Su tempi di decine di secondi Becco et al. hanno tracciato letraiettorie dei singoli pesci e sono stati in grado di portare a ter-mine analisi sulla struttura e sulla dinamica del banco in funzionedella sua densita: distribuzione delle distanze di primo vicino egrado di allineamento hanno mostrato indizi di una transizione difase disordine-ordine ad una densita critica di circa 500 pesci/m2.Purtroppo fino ad ora conclusioni sperimentali quantitative so-no praticamente assenti, a causa di grandi problemi metodologicinon ancora del tutto risolti: estrema ristrettezza della base statisti-ca dovuta allo studio di non piu di un centinaio di pesci, forti biasintrodotti dalle dimensioni e forme delle vasche, limitazioni do-vute alle tecniche di tracciamento dei pesci e da una non semprecorretta gestione degli effetti di taglia finita.Da un punto di vista etologico e biologico molto lavoro e stato fat-to per comprendere la funzione adattativa delle varie caratteristi-

accastampato num. 0, Novembre 2009 17

Page 18: Accastampato n. 0

IL RESTO DEL NEUTRINO

Figura 6 A sinistra, mandria di bufali; a destra, formiche Matabele.

che della fase ordinata, tra cui la forma del banco, i profili internidi densita, le posizioni dei pesci collegate alla loro grandezza o algrado di familiarita, ecc. Le due funzioni primarie sono senz’al-tro la protezione dai predatori e la ricerca di cibo, mentre i mec-canismi di base individuati vanno nel primo caso dalla diluizionedel rischio all’effetto di confusione, dalla capacita di individua-re prima il predatore al coordinamento di manovre di evasione,mentre nel secondo caso consistono in una maggiore velocita ditrasferimento dell’informazione sulla distribuzione delle risorsedi cibo (per un’ampia lista di referenze, cfr. (1)).

I banchi di pesci sono anche alla base di moltissimi modelli, poiefficacemente adattati anche ad altre specie animali come gli uc-celli: le interazioni dirette a corto raggio descritte prima sono fa-cilmente implementabili in algoritmi bottom-up che hanno dimo-strato di poter riprodurre non solo la transizione alla fase ordinata,ma anche parte delle caratteristiche di quest’ultima riscontrate invari esperimenti.

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

E possibile ricavare il comportamentocollettivo simulando semplici modelli al

computer- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Stormi di uccelli

Nel caso degli uccelli, l’approccio sperimentale e ancora piu pro-blematico rispetto al caso dei pesci, dato che non e possibile ri-correre ad una situazione controllata in laboratorio ed e obbliga-torio considerare tutte e tre le dimensioni spaziali (6). A partelavori pionieristici degli anni ’60, nel ’78 vi e la prima ricostru-zione delle posizioni degli uccelli, limitata a 70 individui in vo-lo dalle campagne ai dormitori, seguita da quella delle traiettoriecomplete di poco piu di 16 individui.

E evidente come qualsiasi analisi su una base di dati cosı ristrettanon possa che portare a risultati solo qualitativi, con il rischio diintrodurre bias non controllabili (si pensi al problema del bordo:in tre dimensioni trattare piccoli gruppi significa considerare perlo piu individui sul bordo e quindi ottenere risultati pesantemente

affetti da problemi di taglia finita). Il problema primario di questamancanza di dati sperimentali nello studio degli uccelli sta preva-lentemente nelle tecniche di ricostruzione delle posizioni che nonpossono essere chiaramente invasive e devono essere implemen-tate sul campo. Per questi motivi sono tecniche per lo piu di tipoottico (stereoscopia, metodo ortogonale) che prevedono l’utiliz-zo di immagini sincrone del gruppo e che richiedono di risolvereesplicitamente il problema del matching, cioe il riconoscimentodello stesso individuo in ogni immagine (6). Queste difficoltahanno reso per decenni impossibile una comparazione adeguatatra modelli teorici, numerici e dati sperimentali, perche il com-portamento collettivo emerge all’aumentare del numero di indivi-dui e limitarsi a piccoli gruppi spesso non permette di studiarneefficacemente le caratteristiche globali.

Figura 7 Esempi degli stormi piu suggestivi visibili a Roma nel periodoinvernale (foto dell’autore e della squadra STARFLAG).

Dinamiche di folla

A volte si dice che l’intelligenza di una folla di persone e inver-samente proporzionale al numero di cervelli che la compongono.Questa massima deriva dall’osservazione che spesso le dinamicheinterne di una folla appaiono irrazionali se viste dall’esterno, tantoda produrre veri e propri disastri nelle situazioni di pericolo, veroo presunto, che scatenano il panico. Si pensi ad incendi in edifi-ci chiusi, ma anche a concerti di star famose o all’apertura dellastagione dei saldi in alcuni grandi magazzini. Questi fenomenisono in aumento con il crescere delle dimensioni di eventi che at-tirano grandi masse, ma e solo da poco piu di un decennio che sistanno studiando e sviluppando teorie quantitative e modelli delledinamiche di folla (7).Simulazioni di questo tipo hanno permesso di migliorare la com-prensione di questi fenomeni e individuare tutti quegli elementi,architettonici e psicologici, che contribuiscono a rallentare o arendere piu pericolosa la fuga in situazioni di panico: ad esem-pio uscite strette o allargamenti prima delle uscite ostacolano ildeflusso, che invece e facilitato dalla presenza di colonne posteasimmetricamente di fronte alla uscite che spezzano gli ingorghi.Inoltre sono risultati utili nello studio anche di altre formazioni,come il traffico automobilistico o le ola negli stadi.

18 accastampato num. 0, Novembre 2009

Page 19: Accastampato n. 0

IL RESTO DEL NEUTRINO

Figura 8 A sinistra, folla a Longchamp, Parigi; a destra, sciame di batteriM. Xanthus.

Conclusioni

Da questa breve panoramica delle specie animali che mostranopeculiari comportamenti collettivi emerge una delle caratteristi-che fondamentali e piu interessanti di questi sistemi: dinami-che macroscopiche simili a fronte di elementi microscopici estre-mamente diversi tra loro. Si tratta di un qualche tipo di uni-versalita del comportamento collettivo, che apparira ancora piuchiaramente dallo studio dei modelli, sia analitici che numeri-

ci, che mostrero nel dettaglio in un prossimo articolo dedicatoal comportamento collettivo animale.

Bibliografia

(1) Cimarelli A., Funzioni di struttura e correlazioni di velocita in stormi di

uccelli in volo: un’analisi empirica nell’ambito del progetto Starflag, Tesi

magistrale (Settembre 2009)

(2) Sumpter D.J.T., The principles of collective animal behaviour, in Phil. Trans.

R. Soc. B, vol. 361:5–22 (2006)

(3) Detrain C. e Deneubourg J.L., Self-organized structures in a superorganism:

do ants behave like molecules?, in Physics of Life Reviews, vol. 3:162–187

(2006)

(4) Holldobler B. e Wilson E.O., The ants, Belknap Press of Harvard University

(1990)

(5) FAO Locust watch: http://www.fao.org/ag/locusts/en/info/info/index.

html

(6) Giardina I., Collective behavior in animal groups: theoretical models and

empirical studies, in HFSP J., vol. 2(4):205–219 (2008)

(7) Helbing D., Farkas I. e Vicsek T., Simulating dynamical features of escape

panic, in Nature, vol. 407:487–490 (2000)

Il Teorema del Limite Centrale

Funzione di densita della variabile casuale normale (o di Gauss).µ indica il valor medio (posizione del picco), σ2 la varianza(larghezza della campana). Da it.wikipedia.org

Curiosando tra risultati statistici d’ogni sorta, come la distri-buzione delle altezze in un paese o quella dei risultati degliesami di maturita di un particolare anno, non si puo non nota-re la presenza ricorrente di una particolare curva, detta Gaus-siana, dalla forma a campana, con un picco al centro e codelaterali sottili.Quella che puo apparire come una semplice curiosita, e inve-ce la realizzazione di un importante teorema della teoria dellaprobabilita, il ramo della matematica che studia e descrive ilcomportamento delle variabili casuali (dette aleatorie), ossiadelle quantita che possono assumere diversi valori, ciascu-no con una certa probabilita. Il Teorema del Limite Centra-le (nella versione generalizzata dal fisico-matematico russoAleksandr Lyapunov), sotto alcune ipotesi, asserisce che: “lasomma di n variabili casuali indipendenti ha una distribuzio-ne di probabilita che tende a una curva Gaussiana al cresce-re di n all’infinito”. In altre parole, un fenomeno aleatorio,risultato della cooperazione di molti piccoli fattori casuali indipendenti, avra una distribuzione di probabilita Gaussiana.Il voto che uno studente prendera alla maturita, per esempio, dipendera da molti fattori, quali la sua preparazione, leabilita acquisite, la capacita di concentrazione, ecc. . . Nonostante la distribuzione di probabilita di questi fattori non sianecessariamente Gaussiana, il voto, che e la somma di questi fattori, si distribuira secondo tale curva.

accastampato num. 0, Novembre 2009 19

Page 20: Accastampato n. 0

La riforma dell’UniversitaItalianaDove siamo e dove stiamo andando. . .

Lara Benfatto(Dipartimento di Fisica della Sapienza di Roma)

Da circa un mese e stata presentata una bozza del Di-segno di Legge Gelmini riguardante la riforma del-l’Universita (1). Tale DDL arriva ad un anno esattodall’imponente mobilitazione di tutto il settore del-

l’Istruzione seguito al decreto legge 133 dell’Agosto 2009, conil quale si pianificavano pesantissimi tagli a scuola ed universita,in termini sia di finanziamento che di reclutamento, riguardanti ilperiodo 2009–2013. Il successivo decreto legge 180 del Dicem-bre 2009 ha parzialmente corretto il tiro sul fronte del blocco delleassunzioni e dei tagli all’universita, lasciando tuttavia in essere untaglio di 946 milioni di euro in 5 anni, pari al 2.7% del Fondo diFinanziamento Ordinario (FFO) del comparto universita (2). Aprima vista tale riduzione puo sembrare non particolarmente si-gnificativa: tuttavia, occorre ricordare che le universita utilizzanogia circa il 90% del FFO per pagare gli stipendi. Ma per fare di-dattica e ricerca servono anche (ingenti) fondi per la gestione distrutture didattiche e laboratori, per le collaborazioni scientifiche,partecipazione a convegni, personale a tempo determinato, ecc.Quindi un taglio del 2.7% del FFO azzera in pratica ogni pos-sibile margine operativo in ricerca e sviluppo del nostro sistemauniversitario, che non puo essere compensato da alcun progettodi riorganizzazione amministrativa del medesimo.

Prima di entrare nel merito del DDL Gelmini vale la pena di fa-re uno sforzo analitico di lettura dei contenuti reali e di quellivirtuali del DDL. E infatti interessante notare come gran partedegli editoriali apparsi in questi giorni su autorevoli quotidianinazionali si siano focalizzati sui punti piu vaghi della prospettatariforma, quelli cioe la cui definizione viene affidata a decreti leggisuccessivi all’approvazione del DDL, e quindi dai contenuti asso-lutamente incerti e al momento imprevedibili. Tentiamo quindi diriassumere a grandi linee i contenuti del DDL, distinguendo tra iprovvedimenti di immediata attuazione e quelli da definirsi.

Provvedimenti immediati

• Riorganizzazione della struttura amministrativa ([Art. 2]).Questa si articola in vari punti: in particolare, si prevedeche al senato accademico venga affiancato un consiglio diamministrazione in cui il 40% dei membri sono esterni al-l’ateneo e con competenze gestionali-amministrative. TaleCdA ha anche potere decisionale che spazia dalla definizio-ne delle “funzioni di indirizzo strategico” alla soppressio-ne/istituzione di corsi di studio e sedi. Si prevede inoltrel’accorpamento dei dipartimenti (aventi un numero minimo

di docenti di 35 o 45) in massimo 12 facolta o ’scuole’. Siparla poi di un codice etico che le universita sono tenute adadottare entro centottanta giorni dall’entrata in vigore dellalegge, ma non si da indicazione alcuna rispetto ai contenutiin questione.

• Fondo per il merito degli studenti ([Art. 4]). Si tratta diborse di studio e prestiti di onore, da attribuirsi con criteriunicamente meritocratici (non di reddito) e previa selezio-ne nazionale. Si occupa della gestione del tutto una societa,la Consap spa, che andra pagata con i soldi stessi destinatial fondo. Il Fondo e istituito presso il Ministero dell’Eco-nomia, a cui il Ministero dell’Istruzione fa comunque riferi-mento per coordinarne la gestione. Il Fondo viene finanziatocon “trasferimenti pubblici e con versamenti effettuati a ti-tolo spontaneo e solidale effettuati da privati, societa, entie fondazioni, anche vincolati, nel rispetto delle finalita delfondo, a specifici usi”.

• Riordino del reclutamento ([Art. 7-10]). I punti salientisono:

Art. 8 Si istituisce l’abilitazione nazionale per associato eordinario, basata sui soli titoli. La valutazione vie-ne fatta da una commissione di durata biennale, con4 membri sorteggiati da una lista di ordinari (a cui siaggiungono anche gli associati solo se gli ordinari diquel settore sono meno di 50) che fanno richiesta diesserci, e il cui curriculum e pubblico, piu un membrostraniero. Le selezioni hanno cadenza annuale, ma nelcaso in cui il candidato non la superi deve aspettare 2anni per riprovarci, e 3 per riprovare il livello succes-sivo. Da notare che una volta ottenuta l’abilitazionebisogna comunque sostenere il concorso presso le sin-gole sedi universitarie qualora queste bandiscano deiposti. Le universita possono anche indire procedureriservate per personale gia in servizio nell’ateneo, madestinandovi non piu del 30% dei posti disponibili neiprimi 5 anni successivi all’attuazione della riforma.Dopo questo periodo si richiede che siano obbligato-riamente esterni 1/5 dei posti da ordinari e 1/3 di quellida associati.

Art. 10 Assegni di ricerca. Hanno durata da 1 a 3 anni, rin-novabili, ma non devono superare complessivamentei 10 anni. Oltre ai bandi locali di ateneo (che posso-no basarsi su fondi di ateno o fondi esterni su progetti

20 accastampato num. 0, Novembre 2009

Page 21: Accastampato n. 0

ONDA LUNGA

specifici) vengono istituiti anche dei bandi per sele-zioni nazionali, nelle quali il ricercatore presenta unprogetto che, in caso di vittoria, verra svolto pressouna sede universitaria scelta dal candidato.

Art. 11 Contratti di insegnamento. Ci sono due casi: contrattia titolo gratuito o oneroso da dare a studiosi esterniper potersi avvalere delle loro prestazioni. Poi i vericontratti di docenza da attribuirsi previo espletamentodi procedure disciplinate con propri regolamenti, cheassicurino la valutazione comparativa dei candidati ela pubblicita degli atti. Lo stipendio viene deciso alivello ministeriale, ma non si sa in che modo.

Art. 12 Scompare la figura del ricercatore a tempo indetermi-nato, per divenire a tempo determinato. Lo stipen-dio incrementa del 20% rispetto ai livelli attuali (ar-rivando a circa 2200 euro mensili), ma diventano ob-bligatorie 350 ore di didattica annuali. Vengono as-sunti previa selezione nazionale simile a quella pre-vista per gli assegni (cioe si presenta un progetto esi richiede una sede in cui svolgerlo). Una quota delFFO deve essere devoluta solo a queste posizioni, chedurano 3 anni e possono essere rinnovate per altre3. Se nel secondo triennio il titolare prende l’abili-tazione ad associato puo essere chiamato direttamentedall’ateneo.

Provvedimenti differiti

• Miglioramento dell’efficienza del sistema universitario([Art. 5]). Il Governo si impegna a promulgare entro 12mesi dall’entrata in vigore della presente legge dei decretiche vertano sui seguenti punti:

– introdurre dei sistemi di valutazione periodica del-la ricerca svolta dai docenti, basati sui criteridell’ANVUR (6)

– strumenti di controllo della situazione patrimonialedelle universita

– disciplinare l’attivita dei docenti, per esempio stabi-lendo un impegno dovuto di 1500 ore annue di cui 350di docenza. Vanno individuati i casi di incompatibilitatra la posizione di professore e ricercatore universita-rio e l’esercizio di altre attivita o incarichi. Gli scattidiventano triennali (ma complessiavmente della stessaentita) e previa valutazione dell’attivita didattica e diricerca del docente. Una quota del FFO destinata aduna certa universita verra assegnata in base a criteri divalutazione scientifica dei docenti stessi.

– riforma del diritto allo studio: si parla di una genericadefinizione di ’requisiti minimi’ per garantire il dirittoallo studio, ma non vi e alcuna proposta concreta.

Nella sua impostazione generale il DDL prevede un mutamentodecisamente radicale dell’universita italiana. Quello che colpi-sce e tuttavia una sorta di scollamento tra la realta italiana qualeessa e e gli obiettivi della riforma. Ad esempio, la presenza inun CdA dotato di forti poteri decisionali di personalita esterne almondo accademico e prassi comune nel sistema americano, nelquale pero la sinergia tra mondo accademico e privati e di granlunga piu avanzato che da noi, giustificando la presenza di un for-te interscambio tra le due realta. Meno chiaro e come in Italiatale sinergia possa essere ’imposta per legge’: il rischio e che neltentativo di destrutturare l’attuale sistema di potere delle baronieuniversitarie (che finora non e stato in grado di sanare da solo unsistema malato) ci si affidi a cure esterne sulle cui competenze cisono ancora piu dubbi e incertezze.Anche l’idea stessa di creare una vera competizione tra le varieuniversita, allo scopo di attrarre gli studenti migliori, fallisce mi-seramente a fronte di un’obiettiva immobilita sociale del sistemaitaliano: se uno studente non puo permettersi di andare all’univer-sita migliore perche e lontana da casa, la competizione non esiste.In questa prospettiva gli stanziamenti (pubblici, perche quelli pri-vati si concentrerebbero solo su alcuni settori) per il Fondo per ilmerito dovrebbero essere veramente ingenti, ma non vi e traccianella legge di alcun impegno in tal senso.Riguardo ai criteri di riordino del reclutamento si apprezzano se-gnali positivi: la regolarita delle procedure di valutazione, l’ideadi bandire assegni di ricerca nazionali in cui il ricercatore ha l’au-tonomia di proporre il suo progetto, l’obbligarieta (almeno sulmedio periodo) di reclutare personale esterno all’ateneo, un ten-tatvo di regolamentazione dei contratti di insegnamento, di cuial momento si abusa largamente. Tuttavia mentre e chiaro chea regime queste norme possono produrre effetti positivi, non siprevede un periodo di transizione intermedio che tenga conto del-l’attuale realta italiana. Prendiamo il caso della norma che fa di-ventare quella del ricercatore una posizione a tempo determinato:un analogo della ’tenure track’ che e largamente diffusa all’este-ro, in cui il ruolo di docenza viene preceduto da un periodo diprova in cui il ricercatore mostra le sue capacita. In principio, unabuona norma, che all’estero viene usata per avere modo di valua-re un ricercatore prima dell’assunzione a tempo indeterminato.Nel nostro caso, tuttavia, passati i 6 anni di tenure l’assunzionedel ricercatore non e vincolata solo alle sue capacita: anche seil ricercatore acquisisce l’abilitazione nazionale a professore as-sociato la sua immissione in ruolo e automatica solo presso lasede in cui lavora, quindi e vincolata sia alla situazione finanzia-ria della stessa sia al gradimento del ricercatore stesso da partedelle baronie locali. Questo e un baco in generale del perversomeccanismo di abilitazione nazionale e concorso locale: e inuti-le fare una programmazione sulle procedure valutative nazionali(fatto comunque positivo) se poi i posti ’veri’ vengono comunquebanditi localmente, e come tali assoggettati ai noti meccanismi dibaronia locale e ai problemi di deficit finanziario delle varie sedi.

accastampato num. 0, Novembre 2009 21

Page 22: Accastampato n. 0

ONDA LUNGA

Un secondo aspetto che la riforma ignora e che ad oggi si diventaricercatore universitario in media a 36 anni (3): non e quindi au-spicabile che la nuova figura del ricercatore a tempo determinatointeressi questa categoria di scienziati, che hanno alle spalle gia10 anni di precariato nella ricerca. Queste figure andrebbero quin-di gradualmente inserite in ruoli di docenza (ovviamente, previaselezione dei soli meritevoli), il che e reso impossibile dai blocchiattualmente in essere e da un sistema che vede accedere ai ruoli diassociato ricercatori in media di 44 anni, quindi con ulteriori 10anni di esperienza. Questo significa anche che in un’abilitazionenazionale gli standard fissati per accedere ai ruoli di associato ri-guarderanno scienziati con circa 20 anni di esperienza, rendendoimpossibile anche per i migliori giovani ricercatori del nostro pae-se aspirare direttamente alla docenza universitaria di ruolo. Nonsi vede quindi, a dispetto delle numerose esternazioni in tal sensoda parte di molti commentatori ignari della reale situazione uni-versitaria, come queste norme possano risolvere l’enorme proble-ma del precariato universitario. A voler fare una stima al ribassodell’entita del problema, si consideri che lo stesso Ministero del-l’Istruzione ci informa che al momento ci sono 18,000 persone traassegnisti e borsisti impegnati in attivita di ricerca nell’universitaitaliana (4): un numero enorme, se si pensa che nei prossimi anni(2009-2012) vi sara al massimo (5) un turn over di 10,000 unita,che pero stante le norme sul blocco del turn over e sui tagli alFFO produrranno nella migliore delle ipotesi 5000 nuovi posti. Aquesti ricercatori, spesso impegnati in programmi di ricerca di al-tissima qualita, si propone di quindi prolungare la precarieta conaltri 6 anni di posto da ricercatore a tempo determinato. Inoltre,si rende obbligatorio per il ricercatore a tempo determinato uncarico didattico pari a quello del docente di ruolo. Tale novitaha connotati estremamente negativi: attualmente i ricercatori nonsono tenuti a fare attivita didattica (anche se spesso si trovano afarla su base piu o meno volontaria). L’idea e che un giovanedebba fare principalmente ricerca, acquisire i titoli per diventa-re professore universitario, e dedicarsi a quel punto alla didatticacon tutto l’impegno che questa richiede. Questo sistema invecedelega ufficialmente l’insegnamento a figure precarie, a discapitodella qualita stessa dell’insegnamento.

Infine si arriva alla parte piu interessante della riforma, ossia l’a-dozione di procedure di valutazione del personale docente, da par-te di un agenzia, l’ANVUR (6), la cui utilita viene curiosamentericonosciuta dopo un anno e mezzo di stasi completa delle proce-dure per la sua messa in funzione. Vorrei osservare che in questostesso periodo la parte ’sana’ dell’universita italiana ha semprechiesto a gran voce una riforma del sistema in senso meritocrati-co, perche e questa l’unica strada percorribile per migliorare ve-ramente la qualita del mondo accademico. E inutile cambiare leprocedure dei concorsi, bloccare il turn-over, invocare codici eti-ci, se la gestione rimane nelle mani dei soliti noti (o, ancor peggio,nelle mani di un CdA del tutto disinteressato al mondo della ri-cerca). Solo un meccanismo che fa ’pagare’ a posteriori a ogni

singolo dipartimento i costi di scelte scientifiche sbagliate puosconfiggere il malcostume. Questo e il punto di partenza, nonquello di arrivo: ma richiede un coraggio - quello di scardinareveramente poteri consolidati- ed una comprensione dei meccani-smi reali del mondo universitario che sono al momento assenti nelnostro panorama politico.

Bibliografia

(1) Il documento e disponibile on-line: www.accatagliato.org

(2) Il rapporto presentato dal Prof. P. Rossi al ConvegnoC.U.N. del 18 giugno 2008 (http://www.df.unipi.it/

˜rossi/documenti.html) mostra chiaramente che l’incre-mento nominale del 17% del FFO dal 1998 al 2008 e servito uni-camente a fare fronte all’aumento degli stipendi stabiliti in baseall’indice di inflazione ISTAT. Questo significa che non vi e statoalcun aumento netto in termini di investimenti in ricerca e svilup-po.(3) Dati forniti dal CNVSU (Comitato Nazionale di valuta-zione del Sistema Universitario): http://www.cnvsu.it/

publidoc/datistat/default.asp

(4) Dati rilevabili dal sito del Miur: http://statistica.miur.it/Data/uic2007/Le_Risorse.pdf

(5) Una stima esatta del numero dei pensionamenti previsti peri prossimi anni e difficile: tuttavia i dati del CNVSU (http://www.cnvsu.it) stimano tra i 5000 ed i 10000 pensiona-menti.(6) L’ANVUR (www.anvur.it) e l’Agenzia Nazionale per laValutazione del Sistema Universitario: la sua istituzione era stataavviata dal precedente ministro Mussi ma le procedure sono statebloccate al momento dell’insediamento del presente governo.

Sull’autore

Lara Benfatto ([email protected]) ericercatrice presso il CNR/INFM di Roma.

22 accastampato num. 0, Novembre 2009

Page 23: Accastampato n. 0

La transizionevetrosaIl vetro e tra i materiali piu familiari, ma non smette di affascinare gli scienziati

Tullio Scopigno(Gruppo GLAS, Dip. di Fisica della Sapienza di Roma)

Quanto a me, perdonatemi per quello che sto per dire,ma preferisco il vetro, che almeno non manda odore.

E se non fosse cosı fragile,lo preferirei all’oro.

(Petronio, Satyricon, I secolo d.C.)

Negli ultimi venti anni enormi progressi sono statifatti verso la comprensione dei meccanismi di for-mazione del vetro, la cosiddetta transizione vetrosa,ma nonostante cio resta ancora valida l’affermazio-

ne di P.W. Anderson, premio Nobel per la fisica nel 1977, che in-dividua in questo problema uno degli aspetti ancora irrisolti nellafisica della materia.Il vetro, nell’accezione comune del termine, e una sostanza chetrova largo impiego nell’uso quotidiano. Dal punto di vista fisico,pero, puo essere inquadrata in un contesto ben piu generale, inquanto rappresenta una forma di aggregazione della materia chepuo acquisire alcune caratteristiche (per esempio la rigidita mec-canica) del solido e altre (come la struttura microscopica) del li-quido. Allo stato solido, in effetti, i materiali possono presentarsiin forma cristallina o amorfa: nel primo caso gli atomi (o le mo-lecole) che lo compongono sono disposte in modo da formare unreticolo ordinato (cristallo), mentre nel secondo caso, proprio co-me accade in un liquido, vi e totale assenza di periodicita spaziale,e si parla appunto di sostanze vetrose. In base a questa definizio-ne rientrano nella categoria dei vetri le ceramiche, le plastiche, leresine epossidiche e i materiali polimerici, e dunque nelle comuniapplicazioni si ha a che fare con sostanze vetrose molto piu spes-so di quanto non suggerisca il senso comune. A dispetto di questalarga diffusione, il meccanismo di formazione del vetro, la transi-zione vetrosa appunto, risulta essere il problema piu interessantee profondo non ancora risolto nella fisica della materia, per citarele parole di P.W. Anderson, premio Nobel per la fisica nel 1977.

La temperatura della transizione

La fenomenologia della transizione vetrosa puo essere analizzataosservando il comportamento termodinamico di alcuni parametrimacroscopici. Supponiamo, ad esempio, di raffreddare un liqui-do sottraendogli calore (ponendolo in contatto con un ambientea temperatura piu bassa). Se si misura il calore ceduto duran-te il raffreddamento al variare della temperatura (cfr. Figura 1)possono essere identificate diverse regioni termodinamiche.

Figura 1 Calore scambiato da un fuso in fase di raffreddamento. Ros-so: fase liquida. Nero: fase cristallina, che si genera alla temperatura difusione Tm. Arancio: il fluido, in particolari condizioni (per es. raffred-damento veloce) puo mantenersi in una fase liquida metastabile, detta diliquido sottoraffreddato. Blu: diverse fasi vetrose, che si generano alletemperature di transizione vetrosa Tg, dipendenti dalla velocita di raffred-damento. Si osservi la diversa dipendenza del calore dalla temperatura(capacita termica) nella fase liquida e nelle fasi solide.

Al di sopra della temperatura di fusione il liquido rilascia calorecon continuita. Alla temperatura di fusione il sistema solitamentecristallizza, ma in particolari condizioni puo seguire un diversocomportamento, mantenendosi in uno stato metastabile, detto diliquido sottoraffreddato. Nel primo caso il calore rilasciato su-bisce una brusca variazione (calore latente) per poi continuare adiminuire, ma con minor rapidita rispetto alla fase liquida. Usan-do il linguaggio della termodinamica si dice che, alla temperaturadi fusione, il sistema compie una transizione di fase del primoordine. Nel secondo caso il rilascio di calore continua come in

accastampato num. 0, Novembre 2009 23

Page 24: Accastampato n. 0

IL RICERCATORE ROMANO

fase liquida (si parla pertanto di liquido sottoraffreddato) finche,alla temperatura di transizione vetrosa, il calore continua a essererilasciato in modo continuo ma con una rapidita minore, simile aquella del cristallo. Mentre la cristallizzazione e un processo bendefinito, nel senso che la temperatura di fusione e un parametroche caratterizza univocamente ogni liquido, le modalita secondole quali avviene la transizione vetrosa dipendono da diversi fat-tori, come per esempio la storia termica del materiale, ovvero lavelocita di raffreddamento. La temperatura di transizione vetro-sa, pertanto, viene solitamente definita sulla base della velocita diraffreddamento che si riesce ad ottenere sperimentalmente, che edell’ordine di qualche decina di gradi al secondo.

Figura 2 Struttura e dinamica nelle varie fasi termodinamiche. A) Li-quido e liquido sottoraffreddato. Gli atomi compiono un moto di tipodiffusivo, la loro posizione media varia nel tempo. B) Fase vetrosa: gliatomi sono congelati in posizioni di equilibrio disordinate, attorno allequali compiono un moto vibrazionale. C) Gli atomi sono congelati inposizioni di equilibrio disposte su un reticolo ordinato, attorno alle qualicompiono un moto vibrazionale.

In corrispondenza ai diversi stati termodinamici sopra menzionatianche le proprieta dinamiche degli atomi e/o molecole subisconoimportanti variazioni. Allo stato liquido gli atomi e/o le mole-cole si muovono in maniera disordinata e la loro posizione me-dia cambia continuamente. Quando un liquido viene raffreddato,normalmente la perdita di energia termica degli atomi induce unprogressivo ordinamento spaziale. Se la sostanza cristallizza, gliatomi continuano a muoversi, ma in modo diverso da quanto ac-cadeva nel liquido: il moto di diffusione si arresta e gli atomivibrano intorno a delle posizioni di equilibrio che rispettano bendefinite periodicita spaziali (strutture cristalline), come farebbe,ad esempio, un sistema di palline (gli atomi) disposte su un re-ticolo cubico collegate tra loro da molle (i legami chimici). Sela sostanza non cristallizza, superato il punto di fusione, la dina-mica rallenta ulteriormente finche, una volta raggiunta la tempe-ratura di transizione vetrosa, Tg, il moto diffusivo e praticamentecongelato e sopravvivono solo le vibrazioni, che avvengono oraintorno a posizioni di equilibrio che non hanno alcuna periodi-cita spaziale. In realta, la transizione vetrosa marca un confinepiu labile tra liquido-solido di quanto non avvenga nella cristal-lizzazione. Come vedremo, infatti, la temperatura di transizione

vetrosa identifica uno stato in cui la capacita di fluire del liquidoscende al di sotto di un certo valore convenzionalmente scelto.Dunque, anche nel vetro, si ha un moto di tipo diffusivo, seppureestremamente lento, ovvero su scale temporali molto piu lunghedei tipici tempi di osservazione. Se potessimo dunque fotografarela struttura atomica di un vetro otterremmo un’immagine simile aquelle riportata in Figura 2.

Le cattedrali gotiche e la viscosita

A questo proposito, e significativo ricordare il mito delle cattedra-li gotiche, la cui origine viene fatta risalire a una lezione di chimi-ca tenuta nel 1946 nella West Side High School in Newark, NewJersey. Il vetro e in realta un liquido - pare abbia detto il profes-sor Clarence Hoke in questa occasione - Lo si puo dire guardandoalle vetrate delle antiche cattedrali europee. Il vetro e piu spessonella parte bassa che in quella alta. Il motivo di questa differenzadi spessore sarebbe dovuto al flusso del vetro sotto il proprio peso.Pare che la convinzione del professor Hoke abbia fatto proselitinegli anni successivi, raccogliendo un significativo numero di ci-tazioni. Del resto bisogna ammettere che questo mito presenta uncerto appeal: vetro e liquido sono spesso presentati come stati diaggregazione molto simili, caratterizzati dalla mancanza di ordinenella disposizione atomica. Poiche questo e certamente vero dalpunto di vista qualitativo, si puo comprendere una certa tentazio-ne nello spingersi troppo oltre nell’analogia, ignorando gli aspettiquantitativi della similitudine. In realta molti scienziati, ma anchesemplici appassionati, si sono cimentati nella verifica quantitati-va, e dunque sperimentale, dell’affermazione del professor Hoke,con risultati incontrovertibili che indicano come il mito sia total-mente (o quasi) infondato. Pare che effettivamente si riscontrinodisomogeneita nello spessore di vetrate antecedenti il XIX secolo,ma allo stesso tempo il lato con lo spessore maggiore e montato inalto, in basso o lateralmente con frequenze statisticamente simili.

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

...il problema piu interessante e profondonon ancora risolto nella fisica della

materia...- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Dunque questa leggenda popolare si spiegherebbe in modo moltosemplice: prima del XIX secolo le lastre di vetro venivano pro-dotte partendo da una sfera e riducendola a disco mediante per-cussione. In questo processo inevitabilmente si ottenevano diso-mogeneita negli spessori ed e possibile che gli artigiani del tempopreferissero montare il lato piu spesso in basso per sopportaremeglio il carico strutturale. Al giorno d’oggi le moderne finestrevengono formate facendo adagiare per galleggiamento il fuso ve-troso su un substrato di stagno fuso, processo che rende la lastraaltamente uniforme. D’altra parte, se e vero che anche al di sotto

24 accastampato num. 0, Novembre 2009

Page 25: Accastampato n. 0

IL RICERCATORE ROMANO

della transizione vetrosa il materiale mantiene una certa capacitadi fluire, questa e talmente bassa che a temperatura ambiente oc-correrebbe l’eta dell’universo per creare un aumento di spessoredi soli 10 Angstrom (l’Angstrom e la dimensione caratteristica diun atomo, pari a 10−10 metri) in una lastra verticale alta un metro.Per contro, per osservare sensibili aumenti di spessore su tempiragionevolmente brevi (per esempio la vita di media di un essereumano), occorrerebbe applicare alla lastra sforzi talmente grandiche questa si romperebbe prima di poter fluire. Questo tipo dicalcolo ci porta al concetto di viscosita, ovvero la quantificazionedella capacita di fluire di un materiale, che si misura usualmentein unita chiamate poise. Per farci un’idea, l’acqua ha una visco-sita di 0,01 poise, la marmellata di 500 poise. Il formaggio Brie emolto piu viscoso, 500.000 poise, e alla fine di una cena potrem-mo forse osservare un certo rammollimento di una fetta sotto ilproprio peso. Ma un vetro a temperatura ambiente possiede unaviscosita di 100.000.000.000.000.000.000 poise (sı, proprio 1 se-guito da 20 zeri!), ovvero mille milioni di volte piu del piombo.Ora il piombo viene proprio utilizzato per le rilegature artistichedelle stesse vetrate incriminate e nessuno ha mai osservato talirilegature fluire neanche sotto i grandi carichi strutturali ai qualiqueste sono soggette. E ancora, se a temperatura ambiente le ve-trate gotiche potessero davvero essersi deformate sotto il propriopeso, perche non dovrebbe aver fatto altrettanto anche il vasella-me ritrovato qualche migliaio di anni prima nelle tombe egizie onegli scavi greci e romani?

La viscosita e la fragilita

Al livello macroscopico dunque, il parametro fisico che controllala vetrificazione, ovvero il rallentamento delle variabili dinamichemicroscopiche, e la viscosita. In particolare, il comportamentodella viscosita al diminuire della temperatura in prossimita dellaTg permette di classificare i materiali vetrosi secondo uno schemauniversale, reso celebre dallo scienziato americano C.A. Angell.Secondo questo schema, i vetri (o meglio i liquidi in grado divetrificare) si dividono in duri e fragili (strong e fragile), a secon-da della rapidita con la quale la viscosita cambia al variare dellatemperatura in prossimita di Tg. In generale, nel processo di vetri-ficazione, la viscosita aumenta di molti ordini di grandezza, pas-sando da circa 10−4 poise, valore caratteristico dello stato liquidoalle alte temperature, a circa 1013 poise nel vetro, valore con-venzionalmente scelto come caratteristico dello stato vetroso (unaumento di 1017 volte, dunque). Per rappresentare graficamentequesto enorme aumento si usa riportare il logaritmo della visco-sita in funzione dell’inverso della temperatura, scalato per la Tg.In questo modo, con riferimento alla Figura 3, seguendo il versodei valori crescenti lungo l’asse delle ascisse, si puo quantifica-re l’aumento della viscosita al diminuire della temperatura, finoall’approssimarsi del valore 1013 alla transizione vetrosa, ovvero

quando ogni sistema raggiunge la sua temperatura di transizionevetrosa (T = Tg, valore unitario dell’ascissa).

Figura 3 Andamento della viscosita al variare della temperatura. La fra-gilita di un liquido e data dalla pendenza in prossimita della temperaturadi transizione vetrosa (Tg/T = 1). Questo importante parametro e dun-que legato alla variazione di temperatura nell’intervallo di viscosita incui il vetro puo essere lavorato. Intervalli di temperatura piu o meno am-pi, a loro volta, determinano i tempi di lavorazione, piu o meno lunghi,per esempio durante la soffiatura. La silice e il prototipo di vetro du-ro (adatto per applicazioni con tempi di lavorazione lunghi), il gliceroloe un liquido intermedio, mentre i materiali polimerici sono solitamentemolto fragili (necessitano di tempi di lavorazione relativamente brevi).

Osservando gli andamenti schematicamente riportati in Figura 3,e possibile evidenziare alcuni aspetti generali: 1) alcuni liquidi,detti forti, mostrano un andamento lineare della viscosita, altri,detti fragili, mostrano un andamento concavo: la rapidita con cuiaumenta la viscosita al diminuire della temperatura verso Tg au-menta con la diminuzione stessa della temperatura. 2) Le curvecaratteristiche di ciascun materiale non si incrociano mai. Dun-que, intorno a Tg, nelle sostanze forti la viscosita cresce piu lenta-mente, mentre in quelle fragili piu rapidamente. Volendo andareoltre questa distinzione qualitativa, e possibile quantificare il con-cetto di fragilita, m, misurando la pendenza delle curve in pros-simita della transizione vetrosa (valore unitario dell’ascissa). Inquesto modo si va dal valore di m = 20, che caratterizza il prototi-po di vetro duro - la silice pura - verso valori via via crescenti che,per le sostanze polimeriche possono arrivare a m > 200. Mentreesiste un limite inferiore di fragilita (nessun materiale mostra unandamento convesso, ovvero con pendenza minore di 17 in vici-nanza di Tg, non esiste a priori nessun limite superiore alla fra-gilita. Ecco dunque perche, essendo la fragilita una caratteristica

accastampato num. 0, Novembre 2009 25

Page 26: Accastampato n. 0

IL RICERCATORE ROMANO

definita nello stato liquido (sottoraffreddato) e non vetroso, sa-rebbe piu corretto parlare di fragilita dei liquidi piuttosto che deivetri. Lungi dall’essere un mero esercizio matematico, il concet-to e la quantificazione della fragilita racchiude in se alcuni aspettiessenziali della transizione vetrosa, primo fra tutti quello dell’u-niversalita: sistemi diversi si comportano qualitativamente in ma-niera simile, differendo solo nell’aspetto quantitativo. Il concet-to di fragilita, inoltre, ha implicazioni fondamentali anche negliaspetti pratici legati alla lavorazione del vetro. Tali implicazio-ni erano probabilmente note, in forma qualitativa, dai tempi deipionieri della lavorazione del vetro (Fenici ed Egiziani), e certa-mente sono ben note ai soffiatori che da lungo tempo identificanoi vetri duri in lunghi e quelli fragili in corti. La ragione di questadiversa nomenclatura e proprio legata alle implicazioni pratichedel concetto di fragilita.Solitamente, infatti, l’intervallo di lavorazione del vetro per la sof-fiatura e compreso tra 104 e 108 poise. In tale intervallo di visco-sita un liquido molto fragile tendera a raffreddarsi in un intervallodi temperatura relativamente piccolo, al contrario di un vetro du-ro, che si raffreddera in un intervallo di temperatura relativamentepiu ampio. In modo corrispondente, i liquidi fragili vetrificanoin tempi relativamente corti, mentre quelli duri in tempi piu lun-ghi. I vetri corti si preferiscono solitamente nelle applicazioni di

tipo industriale, in cui il fattore decisivo e la velocita di produzio-ne, mentre nelle applicazioni artistiche, quali la soffiatura, sonoi vetri lunghi (duri) a essere preferiti, poiche permettono, appun-to, tempi di lavorazione piu lunghi. La fragilita di un compostopuo essere modulata a partire dalla silice pura mediante l’aggiun-ta di elementi alcalini o terre rare quali sodio, potassio calcio olantanio.Concludendo, sebbene negli ultimi venti anni enormi progressisiano stati fatti verso la comprensione dei meccanismi che rego-lano la transizione vetrosa, l’affermazione di Anderson che indi-vidua in questo problema uno degli aspetti ancora irrisolti nellafisica della materia sembra essere ancora decisamente attuale.

Sull’autore

Tullio Scopigno ([email protected]) e ricercatore presso il Dipartimento diFisica della Sapienza di Roma. Ha recentementevinto il premio europeo Idea con il quale ha fondatoFemtoscopy, una nuova linea di ricerca di spettroscopiaRaman ultra-veloce.

Transizioni di fase del primo ordine

Diagramma di fase dell’acqua. In ascissa la temperatura T, inordinata la pressione P. Ogni punto del piano rappresenta una fasedella sostanza, eccetto che per quelli che si trovano sulle linee chevengono dette linee di transizione. Su di esse avviene il passaggioda una fase all’altra della sostanza. Da it.wikipedia.org

Le transizioni di fase di prima specie (o del primo ordine)sono il piu comune tra i cambiamenti di stato in cui incorro-no i sistemi fisici. Esempio, infatti, ne sono il congelamentodell’acqua o la sua evaporazione, quando la temperatura delliquido attraversa una valore specifico. Sebbene l’essere diprima specie sia formalmente identificato dalla presenza dicalore latente, ossia dalla necessita di cedere o assorbire ca-lore (senza variare la temperatura) perche possa avvenire ilpassaggio di stato, l’effetto tipico che contraddistingue que-ste transizioni e la coesistenza delle due fasi all’interno diun intervallo di temperature: riscaldando l’acqua in una pen-tola con il coperchio parte del liquido evaporera creando unsistema in cui l’acqua e il suo vapore convivono alla stessatemperatura. In altre parole c’e un intervallo di temperaturein cui in cui e possibile trovare l’acqua sia nella fase liquidache in quella gassosa.Un’ulteriore caratteristica delle transizioni di prima speciee la presenza di un salto, durante il passaggio di stato, diquantita direttamente misurabili come il volume: mentre unasostanza sta evaporando, per esempio, il suo volume au-menta sensibilmente anche per infinitesime variazioni dellatemperatura.

26 accastampato num. 0, Novembre 2009

Page 27: Accastampato n. 0

Alla ricerca deldecadimento proibitoVerificare i limiti del Modello Standard studiando i muoni nell’esperimento MEG

Giancarlo Piredda, Gianluca Cavoto, Francesco Renga, Cecilia Voena, Erica Chiaverini(Gruppo MEG, Sezione INFN di Roma)

In Svizzera non c’e solo il CERN - il piu importante efamoso laboratorio al mondo per lo studio delle parti-celle elementari - ma nei pressi di Zurigo si trova an-che il Paul Scherrer Institut (Figura 1, http://www.

psi.ch/index_e.shtml), il laboratorio confederale dove estato realizzato il piu intenso fascio continuo di muoni (fino a108µs−1) al mondo, ottenuti dal decadimento dei pioni prodottinell’interazione di protoni da 590 MeV su un bersaglio di grafite.

Figura 1 Il Peter Scherrer Institut sulle sponde del fiume Aar.

E proprio qui che una piccola ma cosmopolita collaborazione haassemblato e sta operando l’esperimento MEG, progettato per tro-vare il decadimento proibito, cioe la disintegrazione di un muo-ne in un elettrone ed un fotone (µ→ eγ), in luogo del normaledecadimento in elettrone e due neutrini (µ→ eνeνµ).Non e la prima volta che si fa questa ricerca, anzi. I primi ten-tativi risalgono a piu di 60 anni fa, quando Pontecorvo cercavaquesto decadimento nei raggi cosmici con una sensibilita di circa10−4, perche si pensava che il µ fosse un elettrone pesante e quin-di soggetto al decadimento radiativo. E interessante notare chel’assenza di questo decadimento a quel livello e stato un argo-mento usato all’epoca in favore dell’esistenza di due diversi tipidi neutrino. Anche se poi si e scoperto che i neutrini possonooscillare, cioe per esempio un νe puo tramutarsi in un νµ e vice-versa, la probabilita che questo avvenga e cosi bassa che la pre-dizione della dsintegrazione µ→ eγ nel Modello Standard (MS)e di 10−54, cioe praticamente nulla. Quindi il decadimento senzaneutrini assume una importanza strategica perche va a sondare se

e a quale livello le previsioni delle teorie supersimmetriche e/o digrande unificazione - che per tutta una serie di ragioni fondamen-tali rappresentano il possibile superamento delle limitazioni delMS - sono verificate sperimentalmente.Per raggiungere questo scopo si e dovuto migliorare molto la sen-sibilita degli esperimenti con un lungo e laborioso lavoro: bastipensare che c’e voluto un quarto di secolo per migliorare di dueordini di grandezza, passando da 10−9 a 10−11. Per la precisioneil miglior limite 1.2× 10−11 e stato raggiunto dall’esperimentoMEGA alle soglie del 2000.L’ambizioso obiettivo di MEG e di fare un ulteriore passo avantispingendo la sensibilita a 10−13 in una regione in cui vari modellipredicono l’esistenza di un segnale.

L’apparato sperimentale

Come e fatto MEG? L’apparato e molto diverso da quello che siusa in un tipico esperimento di alta energia, per esempio ad uncollider. In questo caso l’apparato sara general purpose, fatto acipolla: un rivelatore di vertice all’interno, un tracciatore nellostrato successivo e a seguire calorimetria e rivelatore di µ. Il tuttoimmerso in un opportuno campo magnetico.

Figura 2 Schema del rivelatore MEG.

accastampato num. 0, Novembre 2009 27

Page 28: Accastampato n. 0

IL RICERCATORE ROMANO

MEG e molto diverso da questo schema (vedi Figura 2): l’appara-to e stato progettato appositamente per la rivelazione di un fotonee di un positrone da circa 50 MeV/c provenienti dal decadimentodi un µ a riposo e quindi collineari e simultanei e per misurarnecon la piu alta precisone possibile le variabili cinematiche.

I muoni (positivi) del fascio, con impulso di circa 30 MeV/c (cor-rispondente ad una energia cinetica di 4.5 MeV) ed una intensitadi circa 3×107s−1 (pari a uno ogni 30 ns!) vengono fermati in unsottile bersaglio di polietilene in modo che il µ decada a riposo.

Il fotone viene rivelato nel calorimetro a Xenon liquido (LXe, ve-di Figura 3), il rivelatore piu innovativo di MEG dal punto di vistatecnologico ed anche il piu grande di questo tipo mai costruito,con il quale vengono misurati energia e tempo del fotone.

Figura 3 L’interno del calorimetro durante l’assemblaggio.

Gli 800 litri di materiale scintillante sono mantenuti ad una tem-peratura di 16K in una struttura di acciaio e alluminio (criostato)a forma di semitoroide trapezoidale (una C, per intenderci) checopre il 10% dell’angolo solido (questioni di bilancio non hannopermesso una copertura maggiore).

Le pareti esterne sono equipaggiate con circa 800 fotomoltiplica-tori che permettono di raggiungere risoluzioni in energia di 1.2MeV, pari al 2.4%.

Figura 4 Il magnete COBRA durante l’installazione.

Il positrone da 52.8 MeV/c, emesso in direzione opposta rispet-to al fotone, viene curvato dalle potenti spire del COBRA - unospeciale magnete superconduttore a gradiente di campo che spaz-za via i positroni di impulso inferiore dei decadimenti ordinari(Figura 4)-, lascia i segni del suo passaggio in un delicato siste-ma di camere a deriva (Figura 5), per andare infine a schiantarsisul Timing Counter (Figura 6), un insieme di barre di scintillato-re plastico, ognuna letta alle due estremita da fotomoltiplicatori,dove viene registrato con grande precisione il suo tempo di arrivo.

Figura 5 Le camere a deriva.

28 accastampato num. 0, Novembre 2009

Page 29: Accastampato n. 0

IL RICERCATORE ROMANO

Figura 6 Il Timing Counter.

Come si vede in linea di principio il compito sembra semplice efacilmente realizzabile. Bisogna pero ricordare che occorre cer-care un debolissimo segnale (se esiste) in un fondo sterminato(che esiste sicuramente!). Le ricerche precedenti ci dicono infattiche su cento miliardi di µ finora neanche uno ha mostrato segnidi violare la disintegrazione prevista dal modello standard. Nonbasta essere ben equipaggiati per registrare il segnale, occorre an-che essere in grado di discriminare tutti quegli eventi di fondo chepossono simularlo. Il fondo piu pericoloso e quello cosiddetto ac-cidentale, in cui un vero positrone ed un vero fotone, provenientida decadimenti di µ diversi appaiono simultanei entro la risoluzio-ne finita dell’apparato. Per questo la risoluzione in tempo giocaun ruolo cruciale nel risultato finale dell’esperimento. MEG ha

raggiunto una risoluzione temporale di circa 100 ps che rappre-senta una delle migliori prestazioni finora raggiunte e costituisceun miglioramento di un fattore di piu di un ordine di grandezzarispetto all’esperimento precedente.

Bibliografia

Research Proposal to INFN: The MEG experiment: search for theµ+→ e+γ decay at PSI (http://meg.web.psi.ch/docs/prop_infn/nproposal.pdf)MEG Collaboration, A limit for the µ→ eγ decay from the MEGesxperiment, http://arxiv.org/pdf/0908.2594MEG Collaboration, Search for the lepton-family-number non-conserving decay µ+ → e+γ, Phys. Rev. D 65, 11(2002) (http://prola.aps.org/abstract/PRD/v65/i11/e112002)

Sull’autore

Giancarlo Piredda ([email protected]) e ricercatore all’INFN, attualmen-te responsabile del gruppo MEG di Roma, GianlucaCavoto ([email protected])e Cecilia Voena ([email protected]) sono ricercatori all’INFN, FrancescoRenga ([email protected])e Post-Doc all’Universita Sapienza di Roma, tuttimembri della collaborazione MEG. Erica Chiaveri-ni ([email protected]) elaureanda nel gruppo di Roma dell’esperimento MEG.

Page 30: Accastampato n. 0

Prolusione del corso di FisicaTeorica di Ettore Majorana13 gennaio 1938: una lezione speciale che mostra le capacita didattiche dello scienziato

Alessio Cimarelli (grazie a Bruno Prezioni, Erasmo Recami, Salvatore Esposito)(Studente di Fisica)

Al mondo ci sono varie categorie di scienziati; gente di secondoe terzo rango, che fanno del loro meglio ma non vanno lontano.C’e anche gente di primo rango, che arriva a scoperte di grandeimportanza, fondamentale per lo sviluppo della scienza. Ma poici sono i geni come Galileo e Newton. Ebbene Ettore era unodi quelli. Majorana aveva quel che nessun altro al mondo ha.Sfortunatamente gli mancava quel che e invece comune trovarenegli altri uomini: il semplice buon senso. (Enrico Fermi)

Figura 1 Ettore Majorana

Ettore Majorana nacque a Catania il 6 agosto 1906 escomparve misteriosamente nel marzo 1938 mentreera di ritorno da Palermo. Il 13 gennaio 1938 ave-va tenuto la lezione inaugurale del suo corso di Fisi-

ca Teorica presso l’universita Federico II di Napoli, ove era sta-to nominato professore ordinario per meriti eccezionali. Questiappunti che di seguito pubblichiamo mostrano l’interesse delloscienziato non solo per le questioni generali e di fondo che ani-mano la ricerca scientifica, ma anche per il migliore metodo di-dattico da seguire per trasmettere il sapere agli allievi, per i qualiha sempre nutrito un profondo interesse. Una lettura degli ap-punti di Majorana per la sua Prolusione puo riuscire rivelatrice,dunque, riguardo a vari aspetti del carattere scientifico ed umanodello scienziato.

Il concorso a cattedra e l’approdo a Napoli

Nel 1937 l’Universita di Palermo, per interessamento di EmilioSegre, richiese un nuovo concorso per la cattedra di Fisica Teori-ca. I concorrenti, oltre Majorana (invitato insistentemente a par-tecipare al concorso da Fermi e dagli amici), erano Leo Pincher-le, Giulio Racah, Gleb Wataghin, Gian Carlo Wick e GiovanniGentile (figlio dell’omonimo filosofo, gia ministro). La commis-sione giudicatrice, riunitasi a Roma, era presieduta da Fermi edera costituita da Antonio Carrelli (segretario), Orazio Lazzarino,Enrico Persico e Giovanni Polvani. I documenti ufficiali testimo-niano che la commissione prospetto al Ministro Bottai (il qua-le accogliera la proposta) l’opportunita di nominare il Majoranaprofessore di Fisica teorica per alta e meritata fama in una Uni-versita del Regno, indipendentemente dal concorso. La cattedrafu attribuita fuori concorso a Majorana e la nomina a professoreordinario, partecipata dal Ministro Bottai il 2 novembre 1937, de-corse dal 16 novembre dello stesso anno. Majorana si reco peroa Napoli verso l’inizio dell’anno successivo (probabilmente il 10gennaio 1938). Qui si rese subito conto dell’esiguita del grup-po di fisici napoletani: [...] Praticamente l’Istituto si riduce allapersona di Carrelli [direttore dell’Istituto di Fisica, ndr], del vec-chio aiuto Maione e del giovane assistente Cennamo. Vi e ancheun professore di fisica terrestre difficile a scoprire [...]. Delle per-plessita di Majorana per l’ambiente napoletano testimoniano allostesso modo alcuni suoi allievi, tuttavia, in una successiva letteraa Gentile, egli dichiarera di essere contento degli studenti, alcunidei quali sembrano risoluti a prendere la fisica sul serio.

Il corso di Fisica Teorica

Majorana annuncia l’inizio del suo corso per il giovedı 13 gen-naio 1938 alle 9:00, ma concorda con il preside della Facolta dievitare ogni carattere ufficiale all’apertura del corso. Di cio sene ha traccia indiretta nell’assenza di una tale notizia sui giornalicittadini (come, ad esempio, Il Mattino), contrariamente a quan-to avveniva per altri corsi, certamente piu affollati. Secondo latestimonianza di Gilda Senatore, alla lezione inaugurale non par-teciparono gli studenti del corso medesimo (o per espressa indica-zione del direttore o per cause contingenti). Lo stesso Majoranaafferma che non e stato possibile verificare se vi sono sovrapposi-zioni d’orario, cosı che e possibile che gli studenti non vengano eche si debba rimandare. Di fatto, la prolusione si terra come pre-visto il 13 gennaio 1938 nell’aula grande di Fisica Sperimentale

30 accastampato num. 0, Novembre 2009

Page 31: Accastampato n. 0

NANOS GIGANTUM

in Via Tari, senza gli studenti ma con una decina di partecipanti,secondo quanto ricorda Sciuti, forse anch’egli presente alla lezio-ne inaugurale. E da notare che se e fondata l’ipotesi secondo laquale la non partecipazione degli studenti fu espressamente voluta(da Carrelli o da altri), cio potrebbe trovare una valida spiegazio-ne in una antica consuetudine dell’Universita di Napoli secondocui il nuovo docente doveva dimostrare agli altri professori del-l’Universita di essere meritevole del posto che sarebbe andato adoccupare. Tale consuetudine sarebbe rimasta in vigore fino al-l’immediato dopoguerra. La successiva lezione, l’inizio vero eproprio del corso, si tenne il sabato 15 gennaio 1938 e il corsoproseguira fino a marzo nei giorni pari (martedı, giovedı e saba-to). La sede delle lezioni era un’auletta posta di fronte a quellausata per la Prolusione, l’aula di Fisica Superiore e l’aula di Fi-sica Teorica, situata al pian terreno dell’Istituto di Via Tari e cheaffacciava su un largo all’interno del cortile dell’Universita.

Figura 2 La famiglia di Ettore Majorana (a destra) a passeggio.

Gli studenti del corso

Gli studenti fisici che partecipavano al corso erano cinque: Nel-la Altieri, Laura Mercogliano, Nada Minghetti, Gilda Senatore eSebastiano Sciuti. Le quattro studentesse erano tutte allievi inter-ni (per cui oltre a studiare per i corsi, svolgevano anche attivita diricerca, prevalentemente in Fisica classica), e seguirono le lezionidi Majorana quando erano al loro quarto anno di Fisica; una delleloro maggiori preoccupazioni era quella di superare esami, essen-dosi trovate fuori corso. Sciuti, invece, aveva gia seguito un corsodi Fisica teorica tenuto da Carrelli. Tuttavia egli era desideroso dientrare in contatto con il gruppo di Roma guidato da Fermi (si eraiscritto a Fisica a 17 anni proprio accogliendo l’invito di Orso Ma-

rio Corbino e Fermi a Roma), e seguire il corso di Majorana (cheproveniva dal gruppo di Roma) appariva ai suoi occhi come il pri-mo passo nel raggiungimento del suo obiettivo. Nella loro attivitadi ricerca, tutti gli allievi si occupavano prevalentemente di Fisicasperimentale; ad esempio la Altieri veniva seguita dall’assistenteCennamo, mentre la Senatore, sebbene incline alla Fisica teorica,si occupava di Fisica molecolare con l’aiuto Maione e, dopo lascomparsa di Majorana, con Cennamo. Oltre ai cinque studen-ti di Fisica ricordati sopra, vanno poi aggiunti altri uditori piu omeno assidui del corso di Fisica teorica: Mario Cutolo e don Sa-vino Coronato. Il primo probabilmente partecipava al corso ancheperche invaghito di un’altra studentessa, Nada Minghetti, mentreil secondo era uno studente di Matematica e diventera poi l’as-sistente fedele di Caccioppoli all’Istituto di Analisi Matematica;fu probabilmente invitato a seguire il corso dallo stesso Cacciop-poli, che aveva partecipato alla lezione inaugurale. In aggiunta aqueste informazioni gia note, si e poi scoperto nel 2004 che, oltreai due uditori appena menzionati, si deve tener conto di un altroprobabile assiduo uditore del corso: Eugenio Moreno.

Lo stile del docente

Majorana, vestito di blu, aveva sempre un aspetto triste e per-plesso e cio, unito alla non facile comprensione degli argomentiavanzati che egli trattava a lezione certamente infondeva una certasoggezione nei giovani uditori del corso di Fisica teorica. D’altrocanto, il soprannome di Grande Inquisitore gli era stato attribuitogia molti anni prima dagli amici di sempre del gruppo di Fermi aRoma. E anche al di fuori del contesto ufficiale delle lezioni, Ma-jorana confermava questo comportamento: salutava e rispondevagentilmente al saluto e, magari, timidamente sorrideva; si intuivache doveva essere profondamente buono e sensibilissimo, ma nonfu mai estroverso o invitante, anzi fu sempre estremamente schivo.E ancora: in quel lungo corridoio buio al piano terra... cammina-va sempre rasente al muro, silenziosamente e solo, muovendosicome un’ombra. Quando arrivo a Napoli, certamente il diretto-re Carrelli dovette parlare degli studenti e delle loro ricerche aMajorana, il quale si dovette rendere subito conto del singolarecompito che si era apprestato ad accettare con un cosı esiguo nu-mero di studenti. Tuttavia egli era fermamente deciso a portarea termine in maniera responsabile il compito assunto. A lezioneera chiarissimo nella trattazione dell’argomento che proponevadi volta in volta all’inizio della lezione e che svolgeva con dovi-zia di particolari, dando sempre la prevalenza alla parte fisicapiu che a quella matematica; ma quando si volgeva alla lava-gna e cominciava a scrivere, faceva calcoli che sul momento nonsempre si riusciva a seguire. Il carattere di Majorana, poi, certa-mente non invitava i timidi studenti a interromperlo per chiederglispiegazioni. Talvolta alcune domande gli venivano esplicitamenterivolte solo da Sciuti, il quale gli chiese anche se poteva avvalersidell’ausilio di qualche testo nel seguire le lezioni del corso. A

accastampato num. 0, Novembre 2009 31

Page 32: Accastampato n. 0

NANOS GIGANTUM

cio Majorana rispose che avrebbe distribuito degli appunti, e checomunque avrebbe seguito il recente testo di Persico (un libro initaliano, molto bello), sebbene apportando alcune semplificazioniformali. Un altro testo consigliato a Sciuti fu quello di Heisen-berg, ma anche per questo vale la considerazione svolta sopra. Glistudenti in difficolta con la comprensione degli argomenti tratta-ti non potevano, quindi, contare sull’aiuto di un libro di testo, ela Senatore ricorda che solo gli appunti presi durante le lezionie raccordati tra noi dopo, ci permettevano di correlare la parteteorica, magistralmente spiegata, con quella matematica che lagiustificava. Infatti, gli studenti (probabilmente solo quelli fisici)usualmente si incontravano il giorno successivo a quello del cor-so per confrontare gli appunti presi a lezione e studiare insiemegli argomenti relativi. Talvolta a lezione, quando Majorana si ac-corgeva (interrompendosi e voltandosi indietro) che gli studentistentavano a capire cio che lui stava esponendo, si fermava e ri-spiegava lo stesso argomento. Proprio durante qualcuna di quel-le lezioni piu aride e piu pesanti in quanto l’argomento trattatoera afferente essenzialmente a metodi matematici da applicarsiallo studio di fenomeni fisici, Majorana dimenticava forse di es-sere quel grandissimo scienziato che era, perche mentre era allalavagna e scriveva, improvvisamente si fermava, poi si volgeva,ci guardava un attimo, sorrideva e riproponeva la spiegazione fa-cendo aderire il concetto gia esposto alle formule che riempivanola lavagna.

Figura 3 Logo dell’Universita Federico II di Napoli.

Appunti per la Lezione InauguraleUniversita di Napoli, 13 gennaio 1938

In questa prima lezione di carattere introduttivo illustreremo bre-vemente gli scopi della fisica moderna e il significato dei suoimetodi, soprattutto in quanto essi hanno di piu inaspettato e origi-nale rispetto alla fisica classica. La fisica atomica, di cui dovremoprincipalmente occuparci, nonostante le sue numerose e impor-tanti applicazioni pratiche - e quelle di portata piu vasta e forserivoluzionaria che l’avvenire potra riservarci -, rimane anzitut-to una scienza di enorme interesse speculativo, per la profonditadella sua indagine che va veramente fino all’ultima radice dei fat-ti naturali. Mi sia percio consentito di accennare in primo luogo,senza alcun riferimento a speciali categorie di fatti sperimentalie senza l’aiuto del formalismo matematico, ai caratteri generalidella concezione della natura che e accettata nella nuova fisica.La fisica classica di Galileo e Newton all’inizio del nostro secoloe interamente legata, come si sa, a quella concezione meccanici-stica della natura che dalla fisica e dilagata non solo nelle scienzeaffini, ma anche nella biologia e perfino nelle scienze sociali, in-formando di se quasi tutto il pensiero scientifico e buona partedi quello filosofico in tempi a noi abbastanza vicini; benche, adire il vero, l’utilita del metodo matematico che ne costituiva lasola valida giustificazione sia rimasta sempre circoscritta esclusi-vamente alla fisica. Questa concezione della natura poggiava so-stanzialmente su due pilastri: l’esistenza oggettiva e indipendentedella materia, e il determinismo fisico. In entrambi i casi si tratta,come vedremo, di nozioni derivate dall’esperienza comune e poigeneralizzate e rese universali e infallibili soprattutto per il fasci-no irresistibile che anche sugli spiriti piu profondi hanno in ognitempo esercitato le leggi esatte della fisica, considerate veramentecome il segno di un assoluto e la rivelazione dell’essenza dell’u-niverso: i cui segreti, come gia affermava Galileo, sono scritti incaratteri matematici. L’oggettivita della materia e, come dicevo,una nozione dell’esperienza comune, poiche questa insegna chegli oggetti materiali hanno un’esistenza a se, indipendente dal fat-to che essi cadano o meno sotto la nostra osservazione. La fisicamatematica classica ha aggiunto a questa constatazione elemen-tare la precisazione o la pretesa che di questo mondo oggettivo epossibile una rappresentazione mentale completamente adeguataalla sua realta, e che questa rappresentazione mentale puo consi-stere nella conoscenza di una serie di grandezze numeriche suffi-cienti a determinare in ogni punto dello spazio e in ogni istante lostato dell’universo fisico. Il determinismo e invece solo in parteuna nozione dell’esperienza comune. Questa da infatti al riguardodelle indicazioni contraddittorie. Accanto a fatti che si succedonofatalmente, come la caduta di una pietra abbandonata nel vuoto,ve ne sono altri - e non solo nel mondo biologico - in cui la suc-cessione fatale e per lo meno poco evidente. II determinismo inquanto principio universale della scienza ha potuto percio essereformulato solo come generalizzazione delle leggi che reggono la

32 accastampato num. 0, Novembre 2009

Page 33: Accastampato n. 0

NANOS GIGANTUM

meccanica celeste. E ben noto che un sistema di punti - quali, inrapporto alle loro enormi distanze, si possono considerare i corpidel nostro sistema planetario - si muove e si modifica obbedendoalla legge di Newton. Questa afferma che l’accelerazione di unodi questi punti si ottiene come somma di tanti vettori quanti sonogli altri punti:

~Pr ∑s

ms

R2rs~ers ,

essendo ms la massa di un punto generico e~ers il vettore unitariodiretto da ~Pr a ~Ps. Se in tutto sono presenti n punti, occorreran-no 3n coordinate per fissarne la posizione e la legge di Newtonstabilisce fra queste grandezze altrettante equazioni differenzialidel secondo ordine il cui integrale generale contiene 6n costantiarbitrarie. Queste si possono fissare assegnando la posizione e lecomponenti della velocita di ciascuno dei punti all’istante inizia-le. Ne segue che la configurazione futura del sistema puo essereprevista con il calcolo purche se ne conosca lo stato iniziale, cioel’insieme delle posizioni e velocita dei punti che lo compongono.Tutti sanno con quale estremo rigore le osservazioni astronomicheabbiano confermato l’esattezza della legge di Newton; e come gliastronomi siano effettivamente in grado di prevedere con il suosolo aiuto, e anche a grandi distanze di tempo, il minuto precisoin cui avra luogo un’eclisse, o una congiunzione di pianeti o altriavvenimenti celesti.Per esporre la meccanica quantistica nel suo stato attuale esisto-no due metodi pressoche opposti. L’uno e il cosiddetto metodostorico: ed esso spiega in qual modo, per indicazioni precise equasi immediate dell’esperienza, sia sorta la prima idea del nuo-vo formalismo; e come questo si sia successivamente sviluppatoin una maniera obbligata assai piu dalla necessita interna che nondal tenere conto di nuovi decisivi fatti sperimentali. L’altro meto-do e quello matematico, secondo il quale il formalismo quantisti-co viene presentato fin dall’inizio nella sua piu generale e perciopiu chiara impostazione, e solo successivamente se ne illustranoi criteri applicativi. Ciascuno di questi due metodi, se usato inmaniera esclusiva, presenta inconvenienti molto gravi. E un fat-to che, quando sorse la meccanica quantistica, essa incontro perqualche tempo presso molti fisici sorpresa, scetticismo e perfinoincomprensione assoluta, e cio soprattutto perche la sua consi-stenza logica, coerenza e sufficienza appariva, piu che dubbia,inafferrabile. Cio venne anche, benche del tutto erroneamente,attribuito a una particolare oscurita di esposizione dei primi crea-tori della nuova meccanica, ma la verita e che essi erano dei fisici,e non dei matematici, e che per essi l’evidenza e giustificazionedella teoria consisteva soprattutto nell’immediata applicabilita aifatti sperimentali che l’avevano suggerita. La formulazione ge-nerale, chiara e rigorosa, e venuta dopo, e in parte per opera dicervelli matematici. Se dunque noi rifacessimo semplicementel’esposizione della teoria secondo il modo della sua apparizionestorica, creeremmo dapprima inutilmente uno stato di disagio o di

diffidenza, che ha avuto la sua ragione d’essere ma che oggi none piu giustificato e puo essere risparmiato. Non solo, ma i fisi-ci - che sono giunti, non senza qualche pena, alla chiarificazionedei metodi quantistici attraverso le esperienze mentali imposte dalloro sviluppo storico - hanno quasi sempre sentito a un certo mo-mento il bisogno di una maggiore coordinazione logica, di unapiu perfetta formulazione dei principi e non hanno disdegnato perquesto compito l’aiuto dei matematici. Il secondo metodo, quellopuramente matematico, presenta inconvenienti ancora maggiori.Esso non lascia in alcun modo intendere la genesi del formalismoe in conseguenza il posto che la meccanica quantistica ha nel-la storia della scienza. Ma soprattutto esso delude nella manierapiu completa il desiderio di intuirne in qualche modo il signifi-cato fisico, spesso cosı facilmente soddisfatto dalle teorie classi-che. Le applicazioni, poi, benche innumerevoli, appaiono rare,staccate, perfino modeste di fronte alla sua soverchia e incom-prensibile generalita. Il solo mezzo di rendere meno disagevoleil cammino a chi intraprende oggi lo studio della fisica atomica,senza nulla sacrificare della genesi storica delle idee e dello stes-so linguaggio che dominano attualmente, e quello di premettereun’esposizione il piu possibile ampia e chiara degli strumenti ma-tematici essenziali della meccanica quantistica, in modo che essisiano gia pienamente familiari quando verra il momento di usar-li e non spaventino allora o sorprendano per la loro novita: e sipossa cosı procedere speditamente nella derivazione della teoriadai dati dell’esperienza. Questi strumenti matematici in gran par-te preesistevano al sorgere della nuova meccanica (come operadisinteressata di matematici che non prevedevano un cosı ecce-zionale campo di applicazione), ma la meccanica quantistica li hasforzati e ampliati per soddisfare alle necessita pratiche; cosı essinon verranno da noi esposti con criteri da matematici, ma da fisi-ci. Cioe senza preoccupazioni di un eccessivo rigore formale, chenon e sempre facile a raggiungersi e spesso del tutto impossibi-le. La nostra sola ambizione sara di esporre con tutta la chiarezzapossibile l’uso effettivo che di tali strumenti fanno i fisici da oltreun decennio, nel quale uso - che non ha mai condotto a difficoltao ambiguita - sta la fonte sostanziale della loro certezza.

Bibliografia

B. Preziosi, E. Recami, La Lezione Inaugurale di Ettore Majora-na al suo corso di Fisica TeoricaS. Esposito, Il corso di fisica teorica di Ettore Majorana: ilritrovamento del documento Moreno

accastampato num. 0, Novembre 2009 33

Page 34: Accastampato n. 0

STARFLAG @ TurinPhoto Festival15–22 ottobre 2009: un inedito lato artistico della ricerca scientifica

Alessio Cimarelli(Gruppo STARFLAG, CNR/INFM)

Negli scorsi anni il progetto europeo STARFLAG,coordinato in Italia da Giorgio Parisi e a cui par-tecipa attivamente la sezione INFM di Roma, haraggiunto con successo l’obiettivo di fornire dati

quantitativi all’analisi degli stormi di storni in volo, ricostruendola posizione tridimensionale di tutti gli uccelli che li compongonoattraverso tecniche di fotografia stereoscopica.

Unitamente all’importanza scientifica di questi studi nell’ambitodella Teoria della Complessita, l’indubbio fascino che le dinami-che di volo di questi animali infondono in tutti i loro osservatoriha suggerito un’inedita interpretazione dei dati fotografici: quellaestetica ed artistica.

Figura 1 Una delle sale di esposizione del Turin Photo Festival 2009

Da questa intuizione, poco comune nell’ambito scientifico, ma diindubbio interesse, e nato l’allestimento fotografico ospitato dalTurin Photo Festival di quest’anno, promosso dall’associazioneGente della Citta Nuova nell’ambito del progetto unaltrosguardo(www.unaltrosguardo.com). Si tratta di 6 stampe Lambda80×80cm di altrettanti stormi fotografati durante le due stagionidi presa dati (2006–2008) del progetto STARFLAG.

Il Turin Photo Festival

Il Turin Photo Fetival e alla sua seconda edizione. Nelle ex Mani-fatture Tabacchi, gentilmente concesse dall’Universita di Torino,torna a vivere la Citta della Luce con mostre fotografiche, pre-

sentazioni, incontri e letture portfolio, dando spazio a oltre 60fotografi internazionali.Otto giorni (15–22 ottobre 2009) dedicati alla fotografia e all’im-magine. Un progetto sperimentale con l’obiettivo di rendere Tori-no un polo di riferimento per il mondo della fotografia, reso pos-sibile grazie allo sforzo di istituzioni, enti, aziende e, soprattutto,persone capaci di vedere il mondo con un altro sguardo.

Figura 2 Gli stormi di STARFLAG in mostra alle ex Manifatture Tabacchidi Torino

STARFLAG e la fotografia

Attraverso la fotografia stereoscopica e possibile ricavare la di-stanza di un oggetto analizzando due immagini scattate da dueposizioni differenti nello stesso istante. Si tratta dello stesso prin-cipio su cui si basa la visione binoculare: i nostri occhi vedonodue scene leggermente differenti fra loro e il cervello e in gradodi fondere queste due immagini per ottenere una scena tridimen-sionale che abbia profondita spaziale. Naturalmente e necessarioriconoscere lo stesso oggetto nelle due immagini e questo none un problema banale quando si ha un gruppo compatto compo-sto da migliaia di uccelli in volo distanti anche centinaia di me-tri. E il cosiddetto problema del matching, brillantemente risoltoda apposito algoritmi sviluppati proprio all’interno del progettostesso.Nel progetto STARFLAG si utilizzano in totale 6 fotocamere di-gitali Canon EOS 1D Mark II equipaggiate con obiettivi Canon

34 accastampato num. 0, Novembre 2009

Page 35: Accastampato n. 0

EVENTI

Figura 3 I sei stormi di STARFLAG stampati con tecnica Lambda

da 35mm e aventi sensori CMOS da 7.8 Megapixel (frame da3504× 2336 pixel). L’esperimento ha luogo nelle ore immedia-tamente precedenti al tramonto, quindi l’esposizione delle foto ecaratterizzata da valori compresi tra 100 e 800 per la sensibilita(ISO), tra 1/1000s e 1/250s per il tempo di scatto e tra f 2.0 ef 4.0 per l’apertura del diaframma.

Il sistema e composto da due gruppi indipendenti e sincronizzatidi 3 fotocamere l’uno, che scattano sequenze interlacciate di fotoper un totale di 10 fotogrammi al secondo (fps). Di ogni gruppofanno parte 2 macchine distanti ∼ 25m l’una dall’altra, la cop-pia stereoscopica, i cui assi ottici convergono con un angolo di0.22rad, insieme ad una terza macchina che facilita il matchingpermettendo di implementare il cosiddetto metodo trifocale. Inquesto modo e possibile scattare fino ad un massimo di 70 fotostereoscopiche consecutive, per sequenze di massimo 7 secondi.

Bibliografia

Progetto unaltrosguardo: http://www.unaltrosguardo.com/

Speedcolor: http://www.speedcolor.it/

Stampa Lambda: http://en.wikipedia.org/wiki/Type_C_print

Starflag Project: http://angel.elte.hu/starling/

La stampa Lambda

Schema di una stampante Lambda, da www.speedcolor.it

Anche conosciuta come stampa digitale C-type o stampaLightjet, si tratta di una tecnica di stampa fotografica a co-lori effettuata in negativo su una carta fotografica che abbiaalmeno tre livelli di emulsioni argentate sensibili alla luce. Inaltre parole le immagini digitali vengono impresse su pelli-cola tradizionale grazie ad una sua esposizione alla luce dilaser rossi, verde e blu, e quindi ingrandite e sviluppate se-condo tecniche standard. Il sistema di stampa dei laser e atono continuo, a differenza della classica stampa a getto diinchiostro che invece si dice a mezzotono, tipica dei processidigitali, con una resa ottimale su tutti i toni e sulle sfumaturedei colori mantenendo un’ottima definizione sia sui piccoliche grandi formati di stampa. La Stampa Lambda si distin-gue dalle altre tecnologie di stampa digitale per la totale assenza di retino, la nitidezza, la naturalezza e ricchezza deitoni e delle sfumature. Questo, unito alla elevata rapidita e alla varieta dei formati stampabili, la rendono uno strumentoversatile tanto per la produzione di grandi quantitativi di stampe fotografiche per cataloghi e cartelle stampa, quantoper la stampa di mostre fotografiche e la realizzazione di pannelli espositivi con immagini e testo. Il principio e loscopo di questa tecnologia e quella di sostituire la stampa fotografica tradizionale in ambito digitale senza abbandonar-ne pero la qualita. La stampa su materiale fotografico, inoltre, garantisce una notevole stabilita del colore nel tempo:una successiva plastificazione, poi, pur non essendo necessaria, prolunga ulteriormente la durata del prodotto. E questouno dei motivi che fanno della Stampa Lambda la tecnologia di riferimento per l’Arte Contemporanea e la Fotografiad’Autore.

accastampato num. 0, Novembre 2009 35

Page 36: Accastampato n. 0