Calarota A_Ing Maurizio Serpieri_Prof Zanutta A_Rilievo Fotogrammetrico Low Cost Arco Augusto Rimini
-
Upload
ing-maurizio-serpieri -
Category
Documents
-
view
223 -
download
3
description
Transcript of Calarota A_Ing Maurizio Serpieri_Prof Zanutta A_Rilievo Fotogrammetrico Low Cost Arco Augusto Rimini
ALMA MATER STUDIORUM - UNIVERSITÀ DI BOLOGNA
SCUOLA DI INGEGNERIA E ARCHITETTURA
DIPARTIMENTO DI INGEGNERIA
CORSO DI LAUREA IN INGEGENRIA EDILE
TESI DI LAUREA in
FOTOGRAMMETRIA T
IL RILIEVO FOTOGRAMMETRICO DELL’ARCO D’AUGUSTO DI RIMINI MEDIANTE CAMERE AMATORIALI E SOFTWARE LOW -
COST
CANDIDATO RELATORE: ANNA CALAROTA Prof. Antonio Zanutta CORRELATORE Ing. Maurizio Serpieri
Anno Accademico 2014/2015 Sessione II
2
Introduzione
Capitolo I
PARTE TEORICA
1.1 IL PRINCIPIO FOTOGRAMMETRICO …………………………………………………..8
1.1.1 La fotogrammetria convenzionale…………………………………………….9
1.1.2 La fotogrammetria non convenzionale………………………...……………15
1.1.2.1 Le camere fotografiche analogiche…………………………………….…17
1.1.2.2 Le camere fotografiche digitali………...…………………………………17
1.1.2.3 L’immagine digitale………………………………………………………18
1.2 CORRELAZIONE AUTOMATICA ……………………………………………………….23
1.2.1 Area based……………………………………………………………………24
1.2.2 Feature Based Matching (FBM)……………………….……………………25
1.2.3 Relational Matching (RM)…………………………………………...………25
1.2.4 Structure from Motion (SfM)………………………………………………..26
1.2.4.1 Le features…………………………………………………………….….28
1.2.4.1.a Gli operatori di interesse (detectors)…………………………...28
1.2.4.1.b L’algoritmo Scale-Invariant Feature Trasform ( SIFT)….......…30
1.2.4.1.c Correlazione dei Descrittori…………………………...………..31
1.2.4.1.d Rimozione degli Outlier…………………………………...……32
1.2.4.2 Budle Block Adjustment……………………...……………………………33
1.2.4.2.a Modelli di distorsione……….………………………….………33
1.3 IL SOFTWARE DI FOTOGRAMMETRIA “AGISOFT PHOTOSCAN” .......…………35
3
Capitolo II
PARTE SPERIMENTALE
2.1 DESCRIZIONE DELL'ARCO D'AUGUSTO ……………………………………….……….36
2.1.1 Storia ed evoluzione………………………………………………………….36
2.1.2 Modalità di costruzione e analisi formale…………………..……………….42
2.1.3 Restauri eseguiti sull’arco dal medioevo a oggi……………..………...……47
2.1.4 Il rilievo dell’arco d’Augusto di Rimini……………………………………..57
2.1.4.1 Il rilievo fotografico………………………………………………..……..57
2.1.4.2 Il rilievo topografico speditivo……………………………………..……...60
2.1.4.3 Analisi del Data Set a disposizione…….………………….………………61
2.2 IL PROCESSO FOTOGRAMMETRICO PER LA GENERAZIONE DI UN MODELLO
VETTORIALE E RASTER …..…………………………..………………………………………..63
2.2.1 Strategie per la generazione della nuvola di punti densa e per la sua
georeferenziazione…………………………………………………………...….63
2.2.1.1 Il formato di scambio di sati LASer…………………………………...…72
2.2.2 Studio geometrico del modello 3D……………………………..……..………73
2.2.3 Sezioni e profili della nuvola densa di punti…..…………………….………77
2.2.3.1 Monografie delle distanze di controllo….………………………………100
2.2.4 Confronto numerico dei prodotti ottenuti…………………………………….105
2.2.5 Analisi strutturale dell’arco: un possibile utilizzo del modello vettoriale
creato…………………………………………………………….……………..107
Conclusioni
Bibliografia
Ringraziamenti
4
Dedicato alla mia famiglia.
5
INTRODUZIONE
L’avvento e la diffusione di fotocamere digitali e di nuove tecnologie nell'ultimo decennio
hanno permesso alla fotogrammetria di mettere a punto innovazioni nelle tecniche di rilievo metrico
digitale per la realizzazione di modelli geometrici tridimensionali dettagliati nel campo architettonico
dei Beni Culturali.
La fotogrammetria è uno dei campi della Geomatica, quest’ultima ha come finalità lo studio del
rilievo geometrico tramite monitoraggio strutturale e documentazione del patrimonio culturale, in
modo che sia di supporto a eventuali restauri futuri.
Un altro utilizzo della fotogrammetria nel campo dei Beni Culturali è l'integrazione di tecniche
diagnostiche non invasive e la riproduzione metrica in alta precisione di opere d'arte grazie alla
creazione di un database per la visualizzazione ed esplorazione in realtà virtuale. Il risultato finale
del rilievo fornisce un’informazione completa sull'oggetto d’interesse in termini di posizione, forma,
geometria, caratteristiche radiometriche e di colore; trattandosi di prodotti tridimensionali, realizzati
per la maggior parte dei casi con tecnologie image-based (fotogrammetria digitale) e/o range-based
(laser a scansione) possono fornire un modello metrico ad altissima fedeltà.
La presente tesi tratta la sperimentazione di un software di fotogrammetria digitale low-cost e
la procedura automatica di orientamento e restituzione delle immagini. Questa procedura automatica
è resa possibile da sempre più disponibili software open source o low-cost, per applicazioni sia
professionali che amatoriali, sempre più popolari e numerosi. Il recente e significativo miglioramento
di hardware ed algoritmi come la Structure from Motion (SfM) permette alla fotogrammetria di
riemergere come tecnologia competitiva. I risultati in termini di caratteristiche geometriche e
precisione metrica sono paragonabili a quelli di laser a scansione per molte applicazioni terrestri
ed aeree.
L'oggetto della sperimentazione è l’arco d’Augusto di Rimini, edificato in Onore di Cesare Ottaviano
(Augusto) nel 27 a.C.. Costituisce la porta orientale che collega la città di Rimini a Roma attraverso
la via Flaminia. L’oggetto di studio è pertanto di grande interesse sia storico che archeologico.
Il modello metrico tridimensionale dell’arco d’Augusto di Rimini viene confrontato impiegando lo
stesso data set ottenuto con la moderna tecnica SfM (Structure from Motion) con il modello metrico
ottenuto dall'Ing. Maurizio Serpieri, nella tesi di laurea in “Ingegneria Civile” eseguita nell'anno
2004/2005: “Rilevamento fotogrammetrico digitale non convenzionale e analisi strutturale agli
elementi finiti dell’arco d’Augusto di Rimini”.
6
Il rilievo fotogrammetrico eseguito venne realizzato utilizzando tecniche denominate
“non convenzionali”, termine riferito sia alla strategia di esecuzione delle prese fotogrammetriche
che all’attrezzatura adoperata, che alla procedura di rilievo topografico adottata ed al software scelto
per risolvere i problemi di orientamento e di restituzione dei fotogrammi stessi.
Il rilevamento è stato eseguito da terra mediante una camera amatoriale digitale a bassa risoluzione,
eseguendo prese convergenti attorno all’arco e definendone mediante misure dirette di distanza un
sistema di riferimento per la scalatura dei prodotti vettoriali e raster ottenuti.
Sono state applicate in sequenza procedure interamente automatiche grazie all’utilizzo del software
di fotogrammetria a basso costo denominato Agisoft Photoscan che sono: l’allineamento delle foto;
l’estrazione delle caratteristiche; la correlazione; l’orientamento e la ricostruzione tridimensionale
dell’oggetto. In virtù delle operazioni sopra citate si è ottenuto un modello vettoriale tridimensionale,
opportunamente scalato sulla base di una misura di distanza.
L’intervento manuale tecnico è reso necessario in un momento preparatorio per la modifica degli
istogrammi dei valori di grigio in modo da esaltare il contrasto dell’immagine rendendola in tal
modo più nitida e definita. In seguito per la creazione le masks, scartando le caratteristiche rilevate
nelle regioni immagine mascherate delle aree di interesse; la eliminazione degli outliers della nuvola
di punti sparsa e densa e per la georeferenziazione del modello stesso.
L’analisi del modello vettoriale ottenuto viene realizzata impiegando un software open source,
denominato CloudCompare, permettendo di eseguire in tempi brevi lo studio geometrico e le
procedure di misura sul modello 3D, in modo da confrontare le distanze omologhe estratte dal
modello ottenuto nel 2005 impiegando procedure semi-automatiche di orientamento e di restituzione.
Il primo capitolo tratta la parte teorica della tesi, ovvero la differenza tra fotogrammetria
convenzionale e non, soffermandosi sulla seconda ed analizzandola nel dettaglio; illustrando le
tipologie di camere impiegate in fotogrammetria e le procedure di correlazione automatiche usate in
fotogrammetria non convenzionale. Infine si descrive il software usato per la realizzazione del
modello metrico tridimensionale dell’arco: Agisoft Photoscan.
Nel secondo capitolo si tratta la storia dell'arco di Augusto di Rimini, con i relativi restauri
che ha subito negli anni, descrivendo anche il rilievo fotogrammetrico eseguito dall'ing. Maurizio
Serpieri nel 2005.
7
Si descrive anche la procedura operativa utilizzata per la realizzazione del modello tridimensionale
con il software Agisoft Photoscan e le procedure operative per lo studio geometrico della struttura
con il software CloudCompare; in modo da facilitare la creazione di un modello 3D anche per chi
non è esperto di fotogrammetria.
Infine viene illustrato il miglior prodotto ottenuto dopo svariate prove effettuate in laboratorio con il
relativo studio geometrico e confrontato con quello ottenuto da Serpieri.
8
CAPITOLO I
1.1 IL PRINCIPIO FOTOGRAMMETRICO
La fotogrammetria è la disciplina che permette di ottenere informazioni metriche
tridimensionali di un oggetto (forma e posizione) mediante l'acquisizione, misura ed elaborazione di
immagini fotografiche analogiche e digitali.
Il procedimento fotogrammetrico si suddivide in tre fasi:
• la presa;
• l'orientamento;
• la restituzione.
La prima fase viene definita come la presa, ovvero il passaggio da punti oggetti a punti immagini.
Mentre la seconda l'orientamento, corrisponde alla determinazione dei parametri di trasformazione,
ricostruendone il fascio di rette proiettive e determinandone i parametri di orientamento incogniti
attraverso i punti fotogrammetrici di appoggio. I parametri di orientamento convenzionalmente
vengono suddivisi in parametri di orientamento esterno ed in parametri di orientamento interno. La
terza fase del processo fotogrammetrico è la restituzione che determina le coordinate oggetto dei
punti collimati, infatti è così possibile ricostruire la geometria dell'oggetto in tre dimensioni (3D).
L'acquisizione di immagini fotografiche può avvenire attraverso l'utilizzo di diverse tipologie
di camere fotogrammetriche:
• Camere metriche;
• Camere semi-metriche;
• Camere amatoriali.
Le camere metriche sono apparecchiature appositamente costruite per scopi fotogrammetrici,
usate solitamente per la presa aerea classica. Sono dotate di costosi obiettivi in grado di limitare la
distorsione radiale, in queste camere la legge di variazione (curva di distorsione) deve essere nota.
I parametri di orientamento interno vengono periodicamente verificati e calibrati. I risultati delle
operazioni di calibrazione sono contenuti nel relativo certificato di calibrazione allegato alla camera.
9
A differenza delle camere metriche, quelle semi-metriche non sono state progettate per scopi
fotogrammetrici, ma sono state adattate a questo uso successivamente. Non tutti i parametri di
orientamento interno sono stabili ed affidabili ed l'obiettivo è meno complesso rispetto alle camere
metriche presentando distorsioni più pronunciate, anche in questo caso, deve essere nota la relativa
legge di variazione.
Infine le camere amatoriali, ovvero quelle di uso comune, appartengono alla fotogrammetria
che viene definita con il nome di “non convenzionale”(monoscopica). In questo caso, i parametri di
orientamento interno non sono noti. I suddetti parametri vengono calcolati con l'autocalibrazione,
oppure mediante procedura apposita, [8].
Le informazioni metriche dell'oggetto rilevato per la creazione di un modello tridimensionale,
possone essere ottenute attraverso due metodi:
• convenzionale;
• non convenzionale.
1.1.1 La fotogrammetria convenzionale
La fotogrammetria convenzionale, detta anche stereoscopica, rappresenta la prima forma di
fotogrammetria. Il processo fotogrammetrico convenzionale prevede che un oggetto venga
fotografato da due differenti punti, in modo da poterne ricavare una visione tridimensionale.
Il concetto alla base è quello della visione binoculare umana, perchè questo avvenga è
necessario che le due prese abbiano gli assi ottici pressochè paralleli tra loro, ovvero che lo schema
di presa si effettui ad assetto pseudo-normale, consentendo di riportarlo all’interno di un sistema
geometrico di coordinate spaziali x, y, z (modello virtuale tridimensionale) e di apprezzare pertanto
anche i valori di quota delle sue varie parti, cioè le distanze dall’obiettivo della fotocamera.
La fotogrammetria stereoscopica viene ottenuta attraverso una camera stereometrica,
chiamata comunemente bicamera. E' una particolare fotocamera costituita da una coppia di camere
metriche fissate agli estremi da una barra indeformabile e destinata alla produzione di fotogrammi
stereometrici. Le camere adoperate producono immagini che possono essere considerate come
prospettive centrali dell’oggetto fotografato.
10
Le equazioni di collinearità governano il procedimento fotogrammetrico, che derivano dallo
studio della geometria proiettiva. Per poter costruire la posizione e forma degli oggetti a partire dalle
fotografie è necessario essere a conoscenza delle relazioni geometriche in base alle quali si formano
le immagini. Durante la formazione delle immagini sulla pellicola avviene una trasformazione non
lineare che porta l'oggetto dallo spazio tridimensionale reale (X,Y,Z) allo spazio immagine
bidimensionale del fotogramma (ξ,η).
Le equazioni di collinearità richiedono una conoscenza dei parametri di orientamento, che
convenzionalmente vengono suddivisi in:
• P.O.I. Parametri di orientamento interno;
• P.O.E.Parametri di orientamento esterni.
I parametri di orientamento interno (P.O.I.) definiscono la posizione del centro di proiezione relativo
al piano dell'immagine, sono:
• la distanza principale c, è la distanza tra il centro dell’obbiettivo ed il piano dell’immagine;
• la posizione del punto principale PP (ξo,ηo) piede della perpendicolare al piano del quadro,
passante per il centro O di presa.
Figura 1.1 – Per definire la posizione del centro di presa O, è necessario che sul piano della lastra sia definito un sistema
di assi cartesiani ( x , y ) che è materializzate dalle quattro marche fiduciali incise sui bodi del fotogramma all’atto della
presa, e un asse z normale al piano della lastra, [13].
11
Mentre i parametri di orientamento esterni (P.O.E.) che definiscono la posizione ed assetto della
camera al momento dello scatto nel sistema di coordinate oggetto sono:
• le 3 coordinate ( Xo, Yo, Zo ) del centro di presa O;
• l’angolo di rotazione ω intorno all’asse x;
• l’angolo di rotazione φ intorno all’asse y;
• l’angolo di rotazione k intorno all’asse z.
Figura 1.2 - Nella figura sono indicati i parametri di orientamento esterno.
12
Le relazioni analitiche che consentono di passare dalle coordinate immagine dell’immagine originale
alle corrispondenti coordinate oggetto si ricavano dalle equazioni di collinearità.
Figura 1.3 – I due triangoli simili OAC e OBP formati consentono di scrivere le relazioni analitiche che
condurranno alle equazioni di collinearità.
Considerato che i due triangoli OAC e OBP sono simili, è possible scrivere le seguenti relazioni:
Dalle quali si esplicano i seguenti termini:
13
Per passare dal sistema di riferimento X', Y', Z' a quello X, Y, Z si introduce una matrice di rotazione
spaziale R in modo tale che:
Dove R è una matrice ortonormale ed φ è la rotazione attorno ad y , ω è la rotazione attorno
ad x e k è la rotazione attorno a z.
Figura 1.4 - Trasformazione delle coordinate del punto P dallo spazio (X,Y,Z) allo spazio immagine
(ξ, η) secondo le leggi della geometria proiettiva centrale.
14
Sfruttando le proprietà delle matrici di rotazione si ricavano i valori delle coordinate nel sistema
cartesiano X, Y, Z:
Il prodotto delle tre matrici fornisce:
Svolgendo i prodotti si ottengono le seguenti espressioni:
15
Sostituendo nella (1.2), ed esplicitate le X e Y, forniscono le equazioni di collinearità:
Tali equazioni evidenziano che per ogni punto immagine esistono infiniti punti oggetto, è quindi
impossibile ricostruire la geometria spaziale di un oggetto a partire da un solo fotogramma.
A causa del notevole costo richiesto dalla strumentazione necessaria (camere metriche e
restitutori), ed alla necessità sia di personale altamente specializzato e sia di ottenere prese
stereoscopiche, che richiedono operazioni di presa lunghe e laboriose; l'impiego della
fotogrammetria terrestre tradizionale nel rilievo architettonico degli edifici è rimasto limitato, [43].
1.1.2 La fotogrammetria non convenzionale
La fotogrammetria non convenzionale, anche definita monoscopica, è l'evoluzione della
fotogrammetria convenzionale. A differenza di quella convenzionale, nella non convenzionale
le prese fotogrammetriche non devono più soddisfare le condizioni imposte dalla stereoscopia,
le prese possono quindi essere ad assi convergenti. La scala media dei fotogrammi può variare
enormemente e le prese possono essere molteplici, e non più limitate a due come nella stereoscopia.
Le camere metriche utilizzate nella fotogrammetria stereoscopica, che si contraddistinguevano per i
costi elevati, non sono più indispensabili nella monoscopia, ciò permette l'abbattimento dei costi e la
possibilità di realizzare prese ad assi ottici convergenti tra loro. Per le prese non convenzionali è
possibile utilizzare “comuni” camere fotografiche amatoriali e/o camere semi-metriche dotate di un
reticolo calibratore.
16
Figura 1.5 – Comparazione tra la presa stereoscopica (a sinistra) e presa monoscopica (a destra).
Questo ramo della fotogrammetria, la monoscopica, viene convenzionalmente suddivisa sulla base
del dato primario, ovvero l’immagine:
• analitica;
• digitale.
La fotogrammetria monoscopica analitica prevede che l’operatore scelga i punti necessari alle
operazioni di orientamento e di restituzione, e collimandoli ne misura le coordinate.
Mentre la fotogrammetria monoscopica digitale costituisce l'ultima frontiera della moderna
ricerca, atta a ricercare soluzioni migliorative del processo fotogrammetrico, sia da un punto di vista
della precisione metrica, sia del contenimento dei costi, aumentando le procedure automatizzate.
Nelle fasi di orientamento e di restituzione, l'operatore può avvalersi sia di procedure manuali che di
procedure automatiche definite con il nome di Image Matching. In termini di software, la sostanziale
novità è la possibilità di individuare automaticamente punti caratteristici omologhi.
Gli automatismi fotogrammetrici digitali hanno assicurato notevoli vantaggi. L'utente che non
possiede nozioni di fotogrammetria può approcciarsi alla fotogrammetria pur non essendo un
fotogrammeta. La fotogrammetria monoscopica digitale amplia il bacino di utenza, diffondendo l'uso
della tecnica fotogrammetrica, producendo a costi minori.
17
Gli svantaggi del software riguardano soprattutto l'aspetto della progettazione rendendola più
impegnativa; di fatto bisogna utilizzare tecniche statistiche sofisticate, e l'utente non esperto può
utilizzare la tecnica in modo errato.
La differenza fra i due tipi di fotogrammetria monoscopica analizzati precedentemente,
dipendono direttamente dal tipo di camera utilizzata. Nel caso della analitica si fa riferimento a
camere fotografiche analogiche, mentre nel caso della digitale, si fa riferimento a camere
fotografiche digitali.
1.1.2.1 Le camere fotografiche analogiche:
Le camere analogiche intrappolano la luce su di una pellicola fotografica o su una lastra
fotografica. Le fotocamere a pellicola (film), cioè le tradizionali, sono basate sulla chimica del
processo fotografico. Tramite l’uso di questo tipo di camere l’intervento a posteriori di un tecnico era
fondamentale, [17].
1.1.2.2 Le camere fotografiche digitali:
La fotogrammetria moderna utilizza principalmente le camere digitali, che hanno semplificato
tutto il procedimento pur mantenendo metodi ed equazioni della fotogrammetria analitica.
Gli algoritmi della fotogrammetria di base restano validi anche per quella digitale,
la sostanziale novità è l'individuazione automatica di punti caratteristici, marche fiduciali e punti
omologhi.
Nelle immagini digitali, il contenuto fotografico viene acquisito e registrato sotto forma numerica,
semplificando la restituzione tramite l'utilizzo di computer e software.
L’acquisizione delle immagine può avvenire per:
• via indiretta per mezzo di una scansione della pellicola;
• via diretta da camere digitali.
L’acquisizione per via indiretta prevede la trasformazione dell'immagine analogica su pellicola
in formato digitale. Il processo è reso possibile dall'utilizzo di appositi scanner fotogrammetrici che
traducono l'immagine in pixel. Lo strumento utilizzato ne garantisce un'alta fedeltà radiometrica e
18
precisione geometrica nell’ordine di pochi micron. Lo scanner fotogrammetrico definisce anche i
parametri di orientamento interno, questa operazione avviene sia in modo automatico che in
semiautomatico.
A differenza dell'acquisizione indiretta, quella per via diretta prevede l’acquisizione
dell'immagine direttamente da fotocamere digitali dando quindi vita ad una foto già prodotta in pixel,
senza quindi dover utilizzare uno scanner fotogrammetrico, ciò si traduce in una riduzione dei tempi
della produzione di rilievo fotogrammetrico. A differenza delle fotocamere analogiche che
prevedevano l'utilizzo di pellicola fotografica, le fotocamere digitali possiedono sensori CCD
(Charger Couplet Device), tecnologia che appartiene agli anni ’70. I sensori CCD sono costituiti da
una matrice di pixel sensibili alla luce che convertono il segnale luminoso in un segnale elettrico. I
sensori convertono la luce di varia intensità, in modo proporzionale all’esposizione ed al flusso
luminoso in entrata.
Il Charger Couplet Device ha sia la funzione di catturare l’immagine che viene generata sul sensore,
che la funzione di trasformarla in una matrice di numeri che a sua volta vengono memorizzati in un
disco di memoria in modo da poter essere elaborati da un computer.
1.1.2.3 L’immagine digitale
L'immagine digitale, ovvero la rappresentazione di un immagine bidimensionale, viene vista
come una funzione continua g(x,y), dove x e y sono variabili spaziali. Il procedimento che converte
una rappresentazione continua, in una discreta ovvero in un'immagine numerica, si definisce
digitalizzazione. La rappresentazione discreta corrisponde ad una matrice g(x,y) di pixel:
19
Ogni elemento discreto che costituisce un'immagine digitale, viene associato ad un numero
intero positivo detto Numero Digitale (DN). Tale numero contiene le informazioni della banda
spettrale (radianza) rilevata. La digitalizzazione prevede che l'immagine fotografica venga
trasformata in elementi areali di dimensioni finite (pixel) ed associandone ad ognuno il numero che
ne rappresenta la radiometria della porzione di immagine contenuta. Ogni Pixel può essere visto
come elemento di una matrice, e quindi individuato univocamente da due numeri interi che ne
rappresentano la posizione del pixel all'interno della matrice:
• indice di riga;
• indice di colonna.
Il pixel ha quindi una posizione fissata a priori che non può variare nel tempo.
Ad ogni elemento della matrice corrisponde:
• un pixel;
• una coppia di coordinate, riferite alla matrice, che identifica il pixel (coordinate immagine);
• un valore (DN1, DN2,…., DN-1,DNn) che rappresenta la radianza del pixel.
Le immagini digitali sono quantizzazioni (radiometriche, profondità bit) e campionamenti
(spaziali, spettrali e temporali) della rappresentazione di una scena, definite da una matrice
multidimensionale di numeri.
Digitalizzare la realtà consiste nel discretizzarla in parti, anche la radianza è perciò una grandezza
discreta. La profondità di bit rappresenta quindi la risoluzione radiometrica conseguibile: l’ampiezza
della radiazione analogica che può essere mappata su un set discreto di pixel.
L'immagine RGB (Red, Green, Blue) possiede tre canali di colore ad otto bit a saturazione variabile
compresa tra 0 e 255, ed attraverso la sovrapposizione dei canali si ottiene il True Color.
20
E' possibile utilizzare un’immagine digitale a scopo fotogrammetrico definendo la relazione fra
la posizione del pixel ed il sistema di coordinate immagine. La dimensione del pixel (dpix)
e la loro numerosità viene utilizzata per definire precisione ed accuratezza dell’immagine
dell’oggetto fotografato. Le dimensioni del pixel in un'immagine digitale sono indicate in termini di
densità di campionamento che ne definiscono la Risoluzione, ovvero il numero di pixel contenuti in
un'unità di lunghezza.
Per la valutazione delle attrezzature la risoluzione dovrebbe esser propriamente valutata in pixel per
pollice DPI (Dots Per Inch) :
Il modo più corretto per valutare la risoluzione di un’immagine digitale è quello di prendere
in considerazione l’area di superficie reale dell'immagine proiettata sul piano focale, quindi
sul piano del sensore. Ground Sampling Distance (GSD) è dato dalla relazione:
Il trattamento delle immagini digitali si divide in cinque gruppi:
1. Acquisizione;
2. Compressione;
3. Pretrattamento e ripristino;
4. Segmentazione;
5. Visualizzazione.
La prima fase è costituita dall'acquisizione che corrisponde alla modalità con la quale vengono
generate le immagini digitali che come trattato precedentemente può avvenire in maniera diretta
tramite macchine digitali o indiretta attraverso scanner fotogrammetrici.
La seconda viene definita come compressione, in questa fase le immagini digitali quantizzate
21
vengono definite nella dimensione del Byte, richiedendo l'utilizzo di schede di memoria per la
memorizzazione, che consentirà di poterle elaborare su un computer.
Nella terza fase del trattamento delle immagini prevede il pretrattamento e ripristino.
Le due procedure sono volte a migliorare l'aspetto delle immagini digitali (enhancement) o volte a
recupero di immagini degradate (restoration).
Il primo ha come obiettivo quello di ottenere un’immagine con caratteristiche migliori rispetto a
quella originale. Mentre il secondo ha lo scopo di rimuovere o minimizzare il degrado introdotto
nell’immagine nella fase di acquisizione.
Successivamente al pretrattamento e ripristino, la quarta fase è rappresentata dalla segmentazione,
ovvero quelle operazioni che permettono di suddividere le immagini in aree significative.
La quinta ed ultima fase del trattamento delle immagini è costituita dalla visualizzazione, tecnica
utilizzata per presentare le immagini.
Per risolvere problemi specifici, come variare la distribuzione dei valori di grigio e contrasto,
si usano tecniche per la manipolazione dell'immagine.
Queste tecniche vengono suddivise in due grandi gruppi:
• il miglioramento del contrasto, basato sulla equalizzazione dell’istogramma dei valori
radiometrici;
• il miglioramento dei bordi radiometrici, insieme di algoritmi che migliorano il gradiente
radiometrico nella zona di bordo radiometrico.
Grazie al calcolo degli istogrammi dei valori di grigio è possibile avere un quadro immediato della
distribuzione radiometrica di una immagine, rappresentando sinteticamente i dati contenuti in una
immagine. Considerando il DN di ciascun pixel di un’immagine come una variabile casuale, il
corrispondente istogramma ne rappresenta un grafico discreto di frequenza che esprime la
distribuzione dei livelli di grigio in tutta l’immagine. Se l’immagine è a colori il concetto è analogo,
ci saranno tre istogrammi sovrapposti, uno per canale (R, G, B).
22
Figura 1.6 - Esempio a scopo illustrativo di un istogramma.
Nell’asse delle ascisse si hanno i possibili valori che ogni pixel può assumere; nelle ordinate vi sono
invece le frequenze, ovvero il numero di pixel relativo ad ogni valore di grigio. Se l’immagine è di
buona qualità cromatica, l’istogramma dei valori di grigio può assumere una forma a campana tipica
della distribuzione Gaussiana, che copre tutta l’ampiezza disponibile dei valori radiometrici.
La conoscenza dell’istogramma dei valori di grigio è utile per procedere ad espansioni o riduzioni di
scala. L’operazione di espansione della scala dei livelli radiometrici risulta vantaggiosa per esaltare il
contrasto dell’immagine rendendola in tal modo più nitida e definita, [44].
23
1.2 CORRELAZIONE AUTOMATICA
Come descritto nel capitolo precedente, l'avvento della fotogrammetria digitale, quindi il
passaggio da fotogrammi analogici a immagini digitali, ha permesso l'introduzione di procedure
automatiche, dette Image Matching per la risoluzione del problema dell'identificazione di punti
omologhi. Le procedure di correlazione automatica vengono applicate per l’orientamento e la
restituzione. L'Image Matching prevede l'unione di più immagini realizzate da prese differenti per la
realizzazione di un modello tridimensionale. Questo processo avviene in quattro fasi:
• la prima fase prevede la selezione di una porzione di immagine di una delle due da correlare;
• nella seconda fase si ricercano le corrispondenze nell'altra immagine;
• la terza prevede il calcolo della posizione in 3D nello spazio oggetto della entità in esame;
• l'ultima fase valuta la qualità della procedura di matching (corrispondenza).
Tra le fasi del processo di Image Matching precedentemente citate, la più difficile da risolvere è
il problema della ricerca di entità coniugate, quindi la seconda fase.
In questa fase, possono essere evidenziate diverse problematiche una fra queste viene definita come
occlusione, ovvero la presenza di un ostacolo tra il punto presa ed l'oggetto da rappresentare
tridimensionalmente. La soluzione delle occlusioni viene ottenuta disponendo ulteriori fotogrammi
dello stesso oggetto da differenti posizioni di presa. In questa fase può evidenziare un secondo
problema dato dal numero eccessivo di operazioni che può essere risolto restringendo lo spazio di
ricerca delle entità coniugate.
Il terzo problema che può essere evidenziato è quello dell'ambiguità risolto adottando entità
campione più caratteristiche.
I metodi più semplici che permettono di ridurre lo spazio di ricerca delle entità coniugate sono:
•••• la geometria epipolare;
•••• la correlazione VLL (Vertical Line Locus );
•••• l'approccio gerarchico.
La geometria epipolare descrive le relazioni ed i vincoli geometrici che legano due immagini della
stessa scena catturata da due fotocamere con posizioni ed orientamento distinto.
24
Il secondo metodo per ridurre lo spazio di ricerca delle entità coniugate è la correlazione VLL
(Vertical Line Locus), ovvero la ricerca delle corrispondenze è ristretta alle epipolari generate
dall’intersezione dei piani principali contenenti la linea verticale passante per il primo oggetto e le
due immagini.
Infine il terzo metodo è rappresentato dall'approccio gerarchico che ricerca le corrispondenze lungo
un tratto s, ripetuta su ogni livello, partendo da quello a risoluzione più grossolana verso quella a
risoluzione più fine, [45].
1.2.1 La correlazione Area based
La correlazione Area Based fa ricorso ad algoritmi che misurano la corrispondenza tra i pixel in
base dei livelli di intensità radiometrica. Le immagini vengono convertite in livelli di grigio che
successivamente vengono applicati agli algoritmi di ricerca che ne valutano il livello di
corrispondenza, cioè la similitudine dei livelli di grigio. Per ogni posizione x di pixel nella prima
immagine viene definito il livello di corrispondenza e quindi selezionato il pixel con la maggiore
somiglianza (Spanò et al. ,2013).
La distribuzione dei livelli di grigio di una porzione di immagine è definita Sagoma, per
automatizzare la scelta di quest'ultima sono stati sviluppati gli operatori di interesse. Gli operatori di
interesse sono operatori matematici che determinano punti omologhi su fotogrammi differenti, anche
per scala. Un operatore di interesse è tanto più efficiente quanto maggiore è il suo grado di
invarianza a trasformazioni geometriche e radiometriche. Può essere utile utilizzare una serie di filtri
per la correzione del contenuto radiometrico del fotogramma, prima di utilizzare un operatore
d’interesse, in modo da esaltare più efficacemente i bordi radiometrici delle immagini, ottimizzando
il contenuto informativo dell’immagine.
Considerato che la qualità dell’immagine è relazionata al contenuto dell’immagine, per rendere
più efficace la correlazione può essere opportuno selezionare zone d'interesse dell’immagine stessa
(interest operators). Il confronto delle zone d'interesse in relazione a livelli di soglia permette di
classificare l’immagine in base alla qualità della correlazione.
I punti di un’immagine che risultano avere una buona correlazione sono punti, linee, o aree che
presentano forti variazioni di densità (bordi radiometrici) ovvero che coincidono con particolari
significativi dell’oggetto.
25
1.2.2 La correlazione Feature Based Matching (FBM)
Il features based matching (FBM) determina gli accoppiamenti fra punti omologhi su due o più
fotogrammi, una volta individuate, con l'utilizzo di operatori d'interesse trova particolari significativi
della geometria dell'oggetto.
Questo particolare tipo di correlazione prevede che prima di ricercare le corrispondenze
tra le immagini vengano estratte delle caratteristiche (feature), locali o globali.
Le feature locali sono entità semplici: punti, bordi degli oggetti, linee, piccole aree con tessiture
particolari. Mentre con il termine feature globali ci si riferisce a poligoni e insiemi di feature
semplici.
Al termine della procedure di estrazione delle feature, per ogni immagine viene creata una lista
contenete le feature e le loro descrizioni. In seguito solo tali liste vengono messe a confronto nella
ricerca delle corrispondenze. Infine anche in questo caso si utilizzeranno gli operatori d'interesse per
l'estrazione delle feature puntuali dalle immagini.
Gli algoritmi utilizzati nella correlazione FBM (Features Based Matching) forniscono un
metodo di scelta per ottenere una lista di elementi omologhi a partire da coppie di immagini sulla
quale applicare il Least Square Matching (LSM), [45].
1.2.3 La correlazione Relational Matching (RM)
Il matching relazionale si dimostra efficace nella fotogrammetria aerea per l’individuazione e
restituzione di edifici e in generale di elementi geometrici regolari. Un limite è dato dalla grande
varietà di forme che possono assumere gli oggetti. Quando il numero di possibili corrispondenze è
elevato, è necessario ridurre lo spazio di ricerca il più possibile e introdurre informazioni aggiuntive
nel modello per semplificare il problema.
Il matching relazionale, frequentemente usato per l’interpretazione delle immagini nella Computer
Vision, consiste in un paragone di “relazioni”. Tali relazioni vengono estratte da ciascuna immagine
ed in seguito poste a confronto per la ricerca delle corrispondenze, [45].
26
1.2.4 Structure from Motion (SfM)
Negli anni ’90, con la diffusione delle camere digitali nel campo della visione artificiale,
la focalizzazione si è concentrata sull’analisi di sequenze di immagini, affrontando la ricostruzione
della Structure from Motion (SfM).
Grazie alla SfM (Structur from Motion) è possibile risolvere orientamenti interni ed esterni di un
blocco fotogrammetrico con il minor numero di informazioni a priori, ricavando dalle fotografie tutte
le informazioni necessarie.
A differenza delle altre tecniche di correlazione precedentemente citate, lo SfM (Structur from
Motion) richiede solo i features, ovvero l’individuazione di corrispondenza. Questo approccio
prevede che venga calcolata la geometria proiettiva relativa delle immagini così come un set di punti
3D che rappresentano la struttura della scena. I fotogrammi vengono catturati in serie da una camera
in movimento attorno alla scena, in seguito sovrapposti insieme. L’ottenimento di tale risultato, è
basato su algoritmi formulati per individuazione e la descrizione delle feature locali in ciascuna
immagine, per poi far corrispondere questi punti bidimensionali nelle immagini multiple. Usando le
corrispondenze come input, lo SfM stima il posizionamento di questi punti d’interesse nelle
coordinate di un sistema di riferimento locale che prende il nome di spazio modello, producendo una
nuvola di punti tridimensionale sparsa che rappresenta la geometria della scena.
27
Figura 1.7 – Workflow generale per la risoluzione della SfM (Roncella; 2007).
28
1.2.4.1 Le features
Le features, ovvero l’identificazione delle corrispondenze sulle immagini, si ottiene attraverso
l’estrazione di elementi (solitamente puntuali) con alto grado di probabilità di essere riconosciuti su
diversi fotogrammi. Utilizzando operatori di interessi (detectors) è possibile analizzare tutta
l’immagine esaminando i valori radiometrici nel dominio spaziale del fotogramma, individuando
delle features dove tali valori assumono caratteristiche peculiari.
Individuato un numero considerevole di elementi “interessanti” (Interest Points), si individuano delle
corrispondenze “putative” in relazione a criteri geometrici e radiometrici, fornendo una prima
catalogazione di corrispondenze omologhe sui diversi fotogrammi, stimando una geometria di presa
preliminare eliminando le corrispondenze sbagliate (Roncella; 2007).
E’ importante sottolineare che fino a questo punto si è ricorso esclusivamente alla struttura del
segnale radiometrico (analizzato per mezzo di operatori di interesse), senza ricorrere all’utilizzo di
alcun parametro iniziale per vincolare la geometria di presa. La geometria di presa viene quindi
definita dalla efficienza degli algoritmi nell’indovinare gli accoppiamenti preliminari e dalla
successiva fase di filtratura delle corrispondenze errate. Le stime della geometria individuata non
verifica strettamente le condizioni reali del blocco fotogrammetrico. La ricostruzione reale del
blocco e delle scena si ottiene grazie alla conoscenza dei parametri di orientamento interno.
La geometria interna al fotogramma infatti permette una ricostruzione conforme del blocco e
dell’oggetto considerato.
1.2.4.1.a Gli operatori di interesse (detectors)
Gli operatori matematici d’interesse (detectors) vengono utilizzati per selezionare ed estrarre
dalle singole immagini le zone corrispondenti alle migliori condizioni per la correlazione. Sussistono
detectors per rintracciare bordi, creste e regioni di interesse, anche se le features usate nella
maggioranza degli approcci SfM consistono negli interest points (Remondino; 2006).
Gli IPs (interest points) devono possedere la caratteristica di essere geometricamente stabili, senza
produrre variazioni sotto differenti trasformazioni, invarianti a qualsiasi cambio di illuminazione o
rumore/sfocatura ed ad alto contenuto di informazione così da poterli facilmente distinguere e
confrontare.
29
I detectors devono essere in grado di rilevare gli IPs, secondo i seguenti criteri per la ricerca:
• analisi di luminosità, quindi sulle derivate del contenuto radiometrico nella matrice
immagine;
• estrazione di contorni valutando la variazione di direzione di segmenti costituiti dalla
medesima intensità di colore.
La maggioranza delle tecniche nella SfM, sono basate sugli operatori tipo-Hessian (Linderberg;
1998) o su quelli di tipo-Harris (Harris-Stephens; 1988).
Quest’ultimo operatore, il tipo-Harris rileva lati ed angoli usando un campionamento di dimensioni
fisse che scansiona l’immagine alla ricerca di cambiamenti geometrici, considera una porzione di
immagine che comprende il punto in esame e ne calcola la similarità con le porzioni vicine. Prevede
la rilevazione di lati ed angoli allo stesso modo di un campionatore di dimensioni fisse che scansiona
l’immagine per ricercare cambiamenti geometrici. I movimenti del campionatore e le coordinate 2D
di ciascun IP vengono registrate qualora il campionatore ne determini una variazione. La
determinazione delle variazione geometriche rappresenta un ostacolo. Il problema viene risolto
grazie all’auto-cross correlation che è in grado di minimizzare la somma delle differenze quadrate
dell’intensità tra zone successivamente campionate dell’immagine. Ovviamente si denota la
limitazione di questo operatore in relazione all’apertura del campionatore, infatti se l’area è estesa
alcuni cambiamenti possono essere tralasciati, ed al contrario possono esser rilevati come punti
interessanti alcuni punti che non lo sono.
Diversamente l’operatore tipo-Hessian si fonda sull’utilizzo della matrice Hessiana e generalmente
l’algoritmo più utilizzato è quello SIFT (Scale-Invariant Feature Trasform).
Gli algoritmi come:
• SIFT (Lowe;1999-2004);
• SURF (Bay, Ess et al.; 2008);
• ASIFT (Morel and Yu;2009).
utilizzano le varianti dei detector di tipo-Hessian, poiché gli operatori Harris non sono invarianti
rispetto alla scala ma solo alla rotazione. Sicuramente nei detector Hessian si possono riconoscere
vantaggi secondari alla localizzazione del campionamento (che ne garantiscono robustezza rispetto
ad occlusione e diffusione) e secondari al carattere distintivo (che ne garantiscono il riscontro in
30
ampi database di caratteristiche); inoltre alcune implementazioni sono efficienti in termini di tempo
e tutte in termini di numerosità di features rilevate.
Si definiscono detector di tipo Hessian poiché si fondano sul principio della rilevazione delle
caratteristiche tramite l’utilizzo della matrice Hessiana. La matrice Hessiana, è una matrice quadrata
di derivate parziali al secondo ordine di una funzione a valori scalari. Nelle immagini la funzione è
rappresentata dalla distribuzione di intensità radiometrica in scala di grigi.
1.2.4.1.b SIFT (Scale-Invariant Feature Trasform)
L’algoritmo SIFT (Scale-Invariant Feature Trasform) pubblicato da David G. Lowe nel 1999 e
nel 2004, utilizzato in computer visione, permette di rilevare e descrivere feature locali nelle
immagini.
Il metodo descritto da D.G. Lowe prevede l’estrazione dei punti chiave SIFT (Scale-Invariant
Feature Trasform) di oggetti da un insieme di immagini di riferimento e immagazzinati in un
database. Quindi l’oggetto viene riconosciuto in una nuova immagine, confrontando individualmente
ogni feature della nuvola immagine con il database precedentemente ottenuto e cercando feature
basandosi sulla distanza euclidea dei loro vettori di feature. Dall’insieme completo di
corrispondenze, nella nuova immagine vengono identificati sottoinsiemi di punti chiave che
concordano con l’oggetto e la sua posizione, scala, orientazione per filtrare le corrispondenze
migliori. Dopo un’ulteriore verifica dettagliata del modello, infine viene calcolata la probabilità che
un particolare insieme di features indichi la presenza di un oggetto, [9; 10; 26; 27]. Un’altra
importante caratteristica di queste feature è che le loro posizioni relative nella scena originale non
dovrebbero cambiare tra due immagini. Scale-Invariant Feature Trasform rileva e usa un numero
31
molto più grande di features dalle immagini, il che riduce il contributo degli errori causati da queste
variazioni locali sull’errore medio di tutte le feature.
L’algoritmo è in grado di formine risultati eccellenti quando le immagini sono acquisite con elevate
sovrapposizioni (circa 80%) e seguendo schemi di presa con geometrie prestabilite.
L’operatore SIFT è invariante alla scala, alla rotazione e all’illuminazione, ha la capacità di estrarre
ed associare punti di interesse anche in condizioni lontane dall’ipotesi di presa normale.
Ricerca i punti su regioni ampie dell’immagine superando i problemi di occlusione e deformazioni
prospettiche. La principale caratteristica che lo distingue da altri operatori di interesse è la
robustezza. Con il termine “robusto” si intende far riferimento alla capacità di estrarre ed associare
punti di interesse.
L’individuazione dei punti dell’immagine invarianti a cambiamenti di scala vengono ricercati con i
features stabili su tutte le scale possibili, usando una funzione Gaussiana nota come spazio-scala. Per
ogni scala vengono calcolate le differenze fra gaussiane adiacenti i cui massimi vengono
memorizzati come punti di interesse (keypoints).
La ricerca di questi punti nello spazio delle scale anziché sulle immagini originali fa sì che i
keypoints estratti non coincidano ne con spigoli ne con discontinuità radiometriche ma che si
localizzino in prossimità degli stessi. L’individuazione di ogni keypoints avviene tramite un
descrittore, ovvero un vettore di numeri, che indipendentemente da rotazioni, variazioni di sala e
cambiamenti di illuminazione, sarà capace di descrivere i gradienti radiometrici nell’intorno del
interest points. In base alla distanza euclidea fra questi vettori n-dimensionali è infine possibile
individuare keypoits omologhi fra le immagini, (Lingua et al.; 2008).
1.2.4.1.c Correlazione dei Descrittori
La correlazione dei descrittori rappresenta la comparazione fra tutte le possibili combinazioni
dei keypoints di una coppia di immagini, valutandone come corrispondenze quelle combinazioni che
hanno la minor distanza euclidea tra i vettori descrittori.
E’ possibile migliorare il matching se si considera la corrispondenza tra due features quella che
possiede un rapporto tra la minima distanza e la seconda minor distanza pari a 0,8. Imponendo
questo cut-off all’80% vengono escluse molte corrispondenze ambigue e potenzialmente simili tra
loro.
32
A causa dei tempi di elaborazione molto elevati del matching completo di tutte le combinazioni tra
caratteristiche su due immagini, sono stati ottenuti risultati eccellenti grazie alla ricerca approssimata
dei nearest neighbors (Snavely, Seitz et al.; 2006). Nella prevalenza dei codici SfM (Structure from
Motion), viene utilizzato un database ANN tramite il metodo Balanced Box-decomposition (Arya,
Mount et al.; 1998) o il Best Bin First descritto in (Beis and Lowe; 1997).
Le features di ogni coppia di immagini vengono inserite, quelle di una delle due, in un struttura di
dati k-dimensionali (Friedman, Bentley et al.; 1977) e quelle dell’altra immagine sono usate come
interroganti.
La conformazione di una struttura di dati ad “albero”, viene affidata ai descrittori delle features,
ovvero a k-ipotesi discriminanti stabilite a priori in un database. Durante la ricerca del nearest
neighbors, le ipotesi vanno a creare classi di dati, consentendo una forte contrazione nella numerosità
delle features totali da equiparare. Iniziando la procedura con il confronto tra vettori descrittori
“madre” (root), si accetta o meno il confronto con classi di vettori sempre più piccole (leaves).
L’affidabilità del matching con l’ANN varia in funzione della dimensione del database, infatti la
percentuale di corrispondenze corrette rispetto alla totalità effettiva è poco inferiore e decresce
leggermente all’aumentare del numero di caratteristiche del database, (Lowe; 2004).
1.2.4.1.d Rimozione degli Outlier
La rimozione dei valori anomali (outliers), viene realizzata impiegando robusti stimatori. Uno di
questi stimatori viene definito come RANSAC (RANdom Sample Consensus), (Fischler and Bolles;
1981), tramite questo viene studiato il controllo della sostanza dei valori corretti tra due
corrispondenze. Queste corrispondenze vengono definite precedentemente con il modello
matematico della SfM (Structure from Motion).
Il principio interattivo del RANdom Sample Consensus (RANSAC) nella SfM consiste in:
• Selezionare un set delle corrispondenze preliminari tra due fotogrammi;
• Calcolare i parametri che ne descrivono la geometria epipolare;
• Testare tutte le altre corrispondenze nei confronti del modello trovato, ovvero controllare che
i punti rilevati siano nella geometria con un determinato livello di confidenza fissato a priori;
33
• Il modello stimato è ragionevolmente valido quando la maggioranza dei punti rientrano nei
livelli di confidenza, mentre quelli al di fuori vengono scartati come outliers;
• Su tutte le coppie di immagini che mostrano corrispondenze viene compiuto questo
procedimento.
1.2.4.2 Budle Block Adjustment:
I parametri di orientamento interno ed esterno di ciascun fotogramma sono diversi da quelli
reali, per la loro configurazione è necessario passare da una ricostruzione prospettica ad una metrica
(conforme). Nella ricostruzione metrica i piani ortogonali hanno angolazioni corrette, linee parallele
restano parallele e il modello 3D restituito è una visione scalata della realtà (Verhoeven, Severa et
al.,2013). Perché questo avvenga, diventa fondamentale compiere una compensazione in blocco ai
minimi quadrati delle equazioni dei raggi proiettivi di ciascun punto di legame tra le immagini (budle
block adjustment). In contemporanea nel budle block adjustment viene realizzata una calibrazione
automatica dei parametri di distorsione interna delle camere, oltre che l’orientamento interno ed
esterno di ciascun fotogramma.
1.2.4.2.a Modelli di distorsione:
La stima accurata dei parametri di orientamento interni ed esterni è correlata alle distorsioni presenti
nei fotogrammi.
Gli Additional Parameters (AP), vengono applicati per la correzione dei parametri di orientamento
interno ed alle coordinate immagine all’interno delle equazioni di collinerità. Sono stati creati per
ridurre al minimo i fenomeni di distorsione presenti nei fotogrammi.
Il modello completo di tutte le possibili distorsioni descritto da Fraser (1997) si compone di 10
parametri aggiuntivi:
• ∆x, ∆y, ∆c per correggere i POI;
• 3 parametri per la distorsione radiale simmetrica (k1, k2, k3);
• 2 parametri per la distorsione decentrante (tangenziale) (p1,p2);
34
• Un fattore di affidabilità sulle ascisse (s);
• Un fattore di taglio (congiuntamente in x ed y) (a).
Figura 1.8 – tipologie delle distorsioni geometriche che interessano i fotogrammi.
35
1.3 IL FOTWARE DI FOTOGRAMMETRIA “ AGISOFT PHOTOSCA N”
Il software Agisoft PhotoScan è una soluzione a basso costo per la ricostruzione della nuvola
sparsa di punti attraverso la tecnica SfM (Structure from Motion). PhotoScan è un'avanzata
soluzione finalizzata alla creazione di modellazioni tridimensionali, basata su immagini digitali che
possono essere prese da qualsiasi posizione e operando in condizioni controllate e non. In condizioni
non controllate si automatizza l'orientamento anche di un grande set di immagini, la tempistica di
questo orientamento è strettamente correlato con il numero di immagini impiegato.
Sugli algoritmi di matching interni impiegati da Agisoft PhotoScan si hanno poche informazioni,
[32]. E' un software ad interfaccia grafica sviluppato dalla Agisoft LLC, che viene utilizzato in
ambiente Windows, rappresenta a pieno tutti gli step del processo fotogrammetrico e supporta
l’ hardware nell’uso combinato di CPU e GPU grazie alle schede OpenCL per il calcolo delle depth
map.
La Structure from Motion si compone nel calcolo delle feature matching tra le foto appartenenti
al chunk, qui rileva i punti nelle immagini rispetto alle variazioni di illuminazione e del punto di
vista, generando un descriptor per ciascun punto, basato su una regione localizzata attorno ad esso.
Per la determinazione delle corrispondenze tra le fotografie viene utilizzato un algoritmo simile allo
SIFT (Scale-Invariant Feature Trasform) ed in una fase successiva si effettua la risoluzione dei
parametri di orientamento interni ed esterni. Agisoft Photoscan utilizza un algoritmo “grezzo” per la
determinazione del posizionamento approssimato delle camere e poi raffina il calcolo impiegando il
budle adjustment. Per la ricostruzione a nuvola densa di punti della superficie, utilizza un approccio
a viste multiple con la fusione di mappe di profondità. Photoscan prevede un filtraggio degli outlier
che può essere impostato su tre livelli (moderate, mild, agressive) indicando quindi la presenza di un
fattore di regolarizzazione.
Nel capitolo successivo verrà illustrato il procedimento operativo per la creazione di un modello
tridimensionale utilizzando questo software, descrivendo dettagliatamente ogni comando e il suo
contributo al miglioramento del modello tridimensionale.
36
CAPITOLO II
2.1 DESCRIZIONE DELL’ARCO D’AUGUSTO
L’arco d’Augusto venne innalzato nel 27 a.C., su volere del Senato e del Popolo romano in
onore di Cesare Ottaviano (Augusto), figlio adottivo di Cesare che fece lastricare a nuovo la via
Flaminia, curandone il restauro così come di tante altre importanti strade d’Italia.
La porta monumentale d’ingresso orientale alla città di Rimini, sorge nel punto nel quale finiva la via
Flaminia, eretta in sostituzione di una porta urbica più antica. Come recita l’iscrizione ancora
leggibile, l'arco fu posto a celebrare la generosità del nuovo principe Augusto, che aveva provveduto
a migliorare le condizioni della Flaminia a proprie spese. Rimini è una delle città fondate dalla
repubblica dei Romani, poiché era molto importante sia dal punto di vista militare, politico che
mercantile.
L’arco sorge nel luogo di una più antica Porta Romana che venne demolita, spianata e ricoperta
con 3 metri di calcestruzzo per far spazio al nuovo arco. La facciata si estende per 14,9 metri di
larghezza, 4,10 metri di profondità ed un’altezza prossima ai 17,5 metri. E’ composta da svariati
caratteri simbolici, attirando tutt’oggi l’attenzione per le sue anomalie nelle proporzioni che non
rispettano le regole del Vetruvio. Conseguentemente ad interventi di demolizione dei corpo adiacenti
eseguiti nel 1937, oggi l’arco si presenta isolato.
2.1.1 Storia ed evoluzione
A seguito di svariate guerre civili il confine dello stato romano venne portato a Savignano sul
Rubicone, teatro di conflitti fra i seguaci di Mario ed i partigiani di Silla. In questo scenario la città di
Rimini si schierò con Mario, ma tale rivoluzione ebbe fine con la proclamazione del nuovo principe
Augusto che portò la pace. Questo tempo di pace fu reso simbolico dalla trasformazione della porta
ubica di difesa di Rimini, in un arco gigantesco senza porte a simbolo che non era più necessario
rifugiarsi in città. Rimini subisce un sostanziale rimodellamento e riassetto urbano con un enorme
rinnovamento che ancora oggi si può notare nei tratti del panorama locale.
Augusto ebbe il ruolo di ministro dei trasporti e delle infrastrutture dei nostri giorni, infatti
promosse varie opere di restauro delle più importanti strade d’Italia e tra queste la sua opera più
importante fu il potenziamento della via Flaminia. Il Senato e il Popolo romano fece erigere nel 27
a.C. l’arco d’Augusto al termine della via Flaminia all’ingresso di Rimini e un secondo arco presso il
ponte Milvio a Romo, per onorare la generosità di Augusto.
37
Ancora oggi si può leggere una parte di iscrizione, che un tempo diceva:
SENATUS POPVLVSQVE ROMANVS
IMPERATORI CAESARI DIVI IVLIO FILIO AVGVSTO IMPERATORI SEPTEM
CONSOLI SEPTEM DESIGNATO OCTAVOM VIA FLAMINIA ET RELIQVEIS
CELEBERRIMEIS ITALIAE VIEIS ET AVCTORITATE EIVS MVNITEIS
Figura 2.1 – Iscrizione ancora leggibile sull’attico dell’arco del prospetto verso Roma
L’arco sorge nel luogo dove sorgeva una più antica Porta Romana che venne demolita, spianata
e ricoperta con 3 metri calcestruzzo per far spazio al nuovo arco. Il nuovo arco è costruito di blocchi
di pietra d’Istria un tempo spesso m. 4,10 ed altro m. 10,23, oggi a causa di vari restauri per il
degrado prodotto nel tempo e da rotture prodotte da sismi, la sua facciata è larga m. 14,90 ed alta m.
17,50 fino alla base dei merli ghibellini del medioevo.
Esistono svariate ipotesi ricostruttive dell’esistenza delle torri ai lati dell’arco, una di queste fa
riferimento al tempo d’Augusto dove l’arco era affacciato da due torri lapidee di forma quadrilatera
affiancate dalle mura che si suppone esistessero già dalla prima metà del III sec. a.C.
38
Figura 2.2 – Ipotesi ricostruttiva delle torri laterali dell’arco. Interpretazione di G.A. Mansuelli, 1942, [28].
Ancora oggi su di queste torri non si hanno testimonianze dirette se non quella dello storico Luigi
Tonino, questo ha scritto svariati saggi dove ha descritto gli scavi intorno all'arco, constatando
l’esistenza di una zona lapidea delle mura, inferiore a quella laterizia. Esso trovò la prova
dell'esistenza dei resti delle torri quadrilateri lapidee, sottostanti alle torri poligonali laterizie
dell'epoca successiva. Secondo questa ricostruzione le torri quadrilatere lapidee formate da blocchi di
arenaria preesistenti alla costruzione dell’arco, sono state mantenute fino alla costruzione delle
successive torri poligonali laterizie a pianta eptagonale.
39
Figura 2.3 – Ricostruzione dell’arco d’Augusto con a lato le torri quadrilatere lapidee. Ricostruzione secondo il
Mansuelli, 1960 [29]. Scala disegno 1:200.
Figura 2.4 –Torri laterizie a pianta eptagonale, costruite successivamente alle lapidee quadrangolari. Ricostruzione basata
sugli scavi archeologici fatti da Tonini e dall’Aurigemma.
40
Queste ricostruzioni sono supposizioni, di fatto noi possiamo solo dire della reale esistenza delle torri
quadrilatere e delle torri a pianta eptagonale, senza sapere il loro aspetto e altezza, d’altronde
esistono solo i riscontri di scavi archeologici fatti dal Tonini e dall’Aurigemma, [4; 5; 37; 38; 39].
I resti attuali delle torri, tranne che per lo strato più antico, sono state ridotti da vari restauri nel
tempo effettuati sui palinsesti murari. Nel corso dei secoli i resti delle torri laterizie a pianta
eptagonale erano state inglobate nelle strutture edilizie che si erano addossate all’arco fino a toccarlo.
I torroni dell’arco d’Augusto sono andati perduti nell’intento di esaltarne la qualità trionfale,
sventrando la zona intorno all’arco per isolarlo dal resto, così come impose Mussolini, nonostante le
opposizioni da parte di studiosi e dalla Soprintendenza dei Beni Culturali.
Ancora oggi sono visibili le fronti interne delle torri in pietra in opera poligonale corrispondenti alle
estremità del parametro in pietra dell’arco.
Figura 2.5 – L’arco d’Augusto così come si presentava nel 1937, anno dello sventramento della zona intorno all’arco voluta da Mussolini. In questa foto si possono distinguere le ultime testimonianze dei due torroni laterali all’arco.
Prospetto verso Roma.
41
Figura 2.6 – Resti del torrione lato mare, dopo lo sventramento del 1937. Prospetto verso Roma.
Figura 2.7 – Resti del torrione lato monte, dopo lo sventramento del 1937. Prospetto verso Roma.
42
2.1.2 Modalità di costruzione e analisi formale
Il sistema ad arco è costituito da elementi che vengono chiamati conci, il principale è quello
posto più in alto detto concio a chiave. Il concio a chiave per effetto del suo peso tende a cadere in
verticale, e in caso non sia permesso il suo peso si ripartisce per mutuo contrasto tra i due conci che
lo affiancano sui due lati, con due forze perpendicolari alla superficie di contatto. Questi due conci, a
loro volta trasmettono questa forza sommata al proprio peso ai conci seguenti. In questo modo i
conci vengono soggetti tutti alla medesima sollecitazione: ossia quella di compressione.
La sollecitazione di compressione nel caso degli archi, non è perfettamente verticale, ma è inclinata
verso l’esterno dell’arco. Tale
sollecitazione detta pressoflessione,
tende non solo a comprimere la
struttura, ma anche a spingerla verso
l’esterno, e a causa di questa
sollecitazione l’arco trasmette ai suoi
sostegni non solo una spinta verticale
ma anche una spinta orizzontale. Per il
contrasto della spinta orizzontale serve
una forza uguale e contraria che le si
oppone, e questa risulta essere il peso
dei piedritti.
Gli archi necessitano di sostegni
verticali di notevole dimensione e
spessore, per tale ragione, (M. Boscolo;
2011).
Lo scarico del carico derivante dal peso della struttura dell’arco sulle fondazioni, che crea uno stato
tensionale del terreno, viene effettuato attraverso gli enormi piedritti, dove i romani per escludere la
possibilità di cedimento del sottosuolo, hanno studiato un riporto di oltre un metro di terreno per
l'esigenza di bonifica ambientale. Questa soluzione non era sufficiente poiché rendeva la struttura più
sensibile a cedimenti, perciò l’apparato di fondazione viene costruito tramite una fondazione a platea
lapidea composta da “tufi legati da calce e lapillo siliceo”. Le dimensioni delle fondazioni sono di 3
metri al di sotto del terreno, 15 metri di lunghezza e 7 metri di larghezza.
Figura 2.8 – Esempio illustrativo di un arco a conci.
43
Le modalità di costruzione, ipotizzata
da Guido Achille Mansuelli, consiste
nell’elevazione dei piedritti in primo
luogo, fino al piano d’imposta e
successivamente si procede con il
voltare il fornice tramite l’impiego di
una centina in carpenteria lignea. La
costruzione della volta è andata di pari
passo con la costruzione delle spalle,
adattando di conseguenza le facce di
giuntura, fino al corso diciassette. Una
volta messo in opera quest’ultimo è
stato possibile il completamento della
fornice, inserendo i timpani in
corrispondenza dei cunei sesto-ottavo e
quindi si sono posti in opera i corsi fino
al venti incluso.
Tolta la carpenteria si proseguì per
ascisse parallele nei corsi ventuno e
ventidue. I blocchi obliqui del frontone
sono stati collocati una volta sistemato
il campo del frontone e fermati con i
blocchi esterni dei corsi ventitre-
venticinque, l’ultimo dei quali forma il
piano su cui posa l’attico. Le
semicolonne sono state poste in opera
tramite elementi in parte inseriti come le
basi, i due elementi del fusto, il
sommoscapo, la metà inferiore di
ciascun capitello; mentre le rimanenti
parti del fusto sono semplicemente applicate e tenute a posto con grappe.
Gli elementi decorativi sono stai ricavati in gran parte dai blocchi stessi della struttura: le
modanature dello zoccolo, gli elementi principali della trabeazione, gli spioventi del frontone, le
cornici dell’attico, i clipei.
Figura 2.9 – Schema di assemblaggio delle semicolonne
44
Nel corso degli anni, sono state formulate molte ipotesi sul reale aspetto che avesse l’arco
D’Augusto prima del restauro della parte superiore in epoca medievale con una merlatura ghibellina.
Purtroppo non si hanno immagini raffiguranti l’arco così come si presentava in origine all’epoca di
Augusto, molti autori nel corso dei secoli si sono cimentati nel rispondere a questo quesito.
Solo dopo il rinvenimento dei reperti di una moneta con la raffigurazione del presunto arco e un
piede di una statua nei dintorni dell’arco, conservati oggi al museo civico di Rimini, si ha una
testimonia dell’ipotesi di una serie di statue situate al di sopra dell’arco in epoca romana. Una delle
ipotesi viene fatta da Luigi Nardi, commissionato da Bartolomei Borghesi, basandosi
sull’identificazione dell’arco raffigurato nel rovescio di due denari in argento dell’imperatore
Augusto. Le teorie di Bartolomeo Borghesi, ripresero nel 1825 basandosi sulla moneta in argento di
L. Vinicius del 17 a.C., restituita dall’opera di Luigi Rossini del 1836, [34]. La restituzione fatta da
Luigi rossini è in relazione con la ricostruzione, dell’arco con il gruppo plastico soprastante, di
Maurizio Brighenti. Luigi Tonini nel 1848, ripropone anch’esso l’esistenza del gruppo plastico, ma
lo studioso Guido Achille Mansuelli nel 1940, espone dubbi rilevanti sull’esistenza di questa
monumentale decorazione e dell’esistenza raffiguranti l’arco. Ancora oggi non sono ancora emersi
documenti archeologici per avvalorare l’esistenza sull’arco del gruppo plastico.
Figura 2.10 – Denario in argento di L. Vinicius (17 a.C.).
45
Figura 2.11 – Luigi Rossini, Restauro e dettagli dell’arco d’Augusto di Rimini, incisione, in Gli archi onorari e funebri
degli antichi Romani, Roma (1836), tav. XIII. Esemplare della biblioteca Classense, Ravenna. Questa figura si basa
sull’immagine monetale, quindi del tutto ipotetica.
46
Figura 2.12 – F. Orlandi, Arco d’Augusto di Rimini secondo illustrazioni del prof. Maurizio Brighenti, olio, 1827.
Raccolte Pancastelli, Biblioteca di Forlì. Elaborazione, estesa anche all’ambiente urbano, dalla “ricostruzione” di
Maurizio Brighenti (1825).
47
2.1.3 Restauri eseguiti sull’arco dal medioevo ad oggi
Il primo restauro eseguito sull’arco d’Augusto è stato effettuato in epoca medioevale, si ipotizza
che la parte superiore dell’arco sia andata persa a causa di eventi bellici o sismici. La muratura con
tanto di merlatura ghibellina è stata costruita, come attestato dal sigillo comunale, nel XIII secolo
d.C. Questa deve essere stata impiegata per tamponare il monumento, impedendo così che l’assenza
della parte superiore dell’arco portasse ad un progressivo smembramento e crollo. Il paramento sale
verticalmente in maniera uniforme fino ad un infossamento verso l’interno, poiché l’attico era in una
posizione più arretrata rispetto al resto del fronte dell’arco. La merlatura ghibellina è composta di 7
merli per ciascun fronte, i quali eccedono in altezza il limite del monumento antico, che si suppone
sia alla base di essi. Si può notare anche ai giorni nostri come siano stati riutilizzati i blocchi
provenienti dal monumento romano.
Una seconda importante opera di restauro fu eseguita nel 1541, dove sono stati rimossi alcuni
resti di difese tardoromane, le quali hanno rovinato la superficie lapidea del fronte verso Rimini.
In questo restauro sono state rinvenute le incassature nella platea di fondazione dell’arco, ritenute gli
alvei degli stipiti di due “porte di fortuna” erette poco all’interno delle due fronti.
Nel 1672 un altro disastroso terremoto colpisce l’arco, che ne rovina le parti più delicate, molto
probabilmente negli anni immediatamente successivi a questo evento sismico sono state utilizzate le
prime due grappe metalliche per rafforzare il paramento dell’arco.
Tommaso Temenza, tramite i suoi rilievi del 1741, ci fornisce delle informazioni sulle
condizioni dei merli medievali, che erano diroccati e di forma irregolare, [40]. Si nota invece che
nel 1825 nella rappresentazione di Maurizio Brighenti, i merli ritornano ad avere una forma regolare,
[11]. Questo fatto è riconducibile a un restauro intercorso fra le due rappresentazioni, infatti si ha
testimonianza che l’architetto Giuseppe Achilli nel 1791 restaurò l’arco per far fronte al sisma del
1786. Il restauro eseguito è stato realizzato intervenendo sui merli costruendo una banchina alla loro
base orlata con mattoni messi a coltello, regolarizzandoli e ricostruendo le punte di essi con della
pietra bianca.
Nel 1875 un nuovo sisma colpisce le zone limitrofe all’arco, e con nuovo restauro vennero
aggiunte altre grappe metalliche in ferro e bronzo sul paramento lapideo, soprattutto in prossimità
degli spigoli dei piedritti.
48
Figura 2.13 – L’arco d’Augusto negli anni 1950-60. Prospetto verso Roma.
49
Figura 2.14 – Piedritto a lato mare prima dell’ultimo restauro del 1996. In questa fotografia, scattata negli anni Ottanta
sono ben visibili le grappe metalliche adoperate a fine di stabilità e compattezza del paramento lapideo e lo stato di
degrado superficiale causato da terribili patine di colore scuro.
50
Figura 2.15 – Piedritto a lato monte rima dell’ultimo restauro del 1996. Le grappe metalliche posizionate sia sui
parametri lapidei dei due fronti e sia sull’arcata sono serviti per garantire stabilità e compattezza ai blocchi di
rivestimento dell’arco.
51
Nel 1916, vennero aggiunte tante altre grappe metalliche a causa anche questa volta di un
terremoto. A seguito di questo sisma vennero anche ricomposti quasi tutti i merli ghibellini, nonché
rimaneggiata la disposizione dei blocchi dell’epigrafe. L’epigrafe infatti non era messa nella
disposizione corretta e solo a Giuseppe Gerola nel 1912, che la decifrò e fu riordinata, [22].
Altra modifica importante all’assetto strutturale del monumento avvenne nel 1936-38, qui la
situazione urbanistica venne completamente sconvolta a causa dei lavori di isolamento dell’arco, per
volere di Mussolini. Nell’intento di esaltare la qualità trionfale del monumento vennero distrutte e
perse per sempre buona parte delle antiche torri laterali e delle mura romane; nonostante le proteste
della Soprintendenza dei Beni Culturali di allora, furono inesorabilmente distrutte con la perdita di
elementi importanti per la ricostruzione della storia cittadina.
Figura 2.16 – Fronte verso Roma dell’arco d’Augusto agli inizi del Novecento, prima dell’isolamento dell’arco. Si può
notare l’addossamento che ha subito l’arco nel corso del tempo.
52
Figura 2.17 – Fronte verso Rimini dell’arco d’Augusto nell’anno 1920. Anche da questo fronte l’arco ha subito, con il
passare degli anni un addossamento da parte delle strutture circostanti.
53
Figura 2.18 – Fotografia del 1937, anno in cui avvenne lo sventramento della zona attorno all’arco per mano di
Mussolini. In questa fotografia si possono notare che gli edifici nelle vicinanze dell’arco sono stati distrutti e gli ultimi
resti delle torri laterizie altomedioevali.
54
Figura 2.19 e 2.20 – Demolizione del torrione laterizio medioevale a lato monte, febbraio 1937.
55
L’isolamento ha portato ad una rotazione, inclinazione e sconnessione della spalla lato mare
modificando l’equilibrio statico del monumento. La causa di questa alterazione del quadro statico-
strutturale è da imputare all’assenza della spinta di contrasto fornita dalle torri laterizie medievali.
Ad amplificare la situazione di dissesto strutturale ne 1944 ha partecipato anche il brillamento di
una mina tedesca piazzata nella base della spalla lato mare.
Figura 2.21 – Particolare del basamento danneggiato dallo scoppio di una mina nel 1944. Il danno che l’esplosione ha
arrecato alla base del piedritto dell’arco a lato mare è visibile in questa fotografia. Il brillamento della mina ha creato una
fessurazione nella strutture ed l’asportazione di parte delle murature interne e del rivestimento lapideo della parte
inferiore.
la Soprintendenza alle antichità di Bologna, per risolvere i problemi statico-strutturale che nel
giro di poco tempo si erano aggravati in maniera considerevole, avanzò la richiesta al Provvedimento
Regionale alle Opere Pubbliche dell’Emilia-Romagna, che la Sezione Autonoma del Genio civile di
Rimini avanzasse tempestivamente concrete proposte per la realizzazione di lavori per migliorare la
situazione in cui si trovava il monumento. I lavori di consolidamento e restauro vennero messi nelle
mani dell’ing. G. Rinaldi e P. Arias nel 1947, [33; 1].
56
L'ing. Rinaldi, dopo un rilievo accurato ed uno studio di verifica di stabilità dell'arco e del piedritto
danneggiato, giunse alle seguenti conclusioni:
• La spinta totale sulla sezione della pianta, al livello del piano di campagna dei piedritti,
portava una sollecitazione massima di 20,5 Kg/cm2.
• Se tale notevole sollecitazione, in relazione alla natura del materiale costruttivo componente
il nucleo murario del piedritto, era sopportabile nel periodo antecedente al danneggiamento,
in seguito a questo, non era più sopportabile senza grave pericolo per la struttura e perciò si
richiedevano lavori di consolidamento particolari.
• Dagli accertamenti era risultato che all'interno della struttura muraria le malte dei nuclei dei
piedritti dell'arco presentavano dei processi di disgregamento, ed era necessario provvedere
ad un cementazione per evitare una ulteriore disgregazione.
A conclusione degli studi fatti, la Sezione Autonoma del genio Civile propose i seguenti lavori:
• Cementazione all’interno dei nuclei murari di tutta la struttura mediante iniezioni di cemento
sotto pressione, eseguite con perforazioni a mezzo di sonde rotative, senza intaccare il
rivestimento lapideo.
• Demolizione dei puntellamenti provvisori e sistemazione e ricostruzione della struttura di
rivestimento della base minata.
• Nel caso in cui il processo di cementazione della struttura muraria non avesse dato gli sperati
risultati, costruzione di due contrafforti in laterizio per centrare, sul piano di base dei piedritti
e ridurre le sollecitazioni unitarie sul terreno da 20,5 Kg/ cm2 a soli 5 Kg/cm2 circa.
Nel 1996-98 ebbe luogo l’ultimo restauro architettonico, realizzato dall’architetto Pier Luigi
Foschi, [20]. Con questo ennesimo restauro si è voluto ridonare lo splendore che si celava al di sotto
di dannose ed antiestetiche patine superficiali. Ma ancora più importante per migliorare la situazione
di cementazione della portante muratura a sacco nascosta dall’esteriore rivestimento lapideo, sono
state iniettate nel nucleo strutturale dell’arco delle resine consolidanti.
57
2.1.4 Il rilievo dell’arco d’Augusto di Rimini
Il rilievo fotogrammetrico e metrico dell'arco d'Augusto di Rimini è stato eseguito dall’ing.
Maurizio Serpieri tramite l'utilizzo di strumentazioni a basso costo, quali:
• Una fotocamera amatoriale digitale ( Nikon Coolpix 5400 ) sottoposta a calibrazione;
• Una cordella metrica;
• Alcuni Target Tape adesivi;
• Un filo a piombo.
2.1.4.1 Il rilievo fotografico
La camera digitale utilizzata è una Nikon Coolpix 5400, dotato di un sensore CCD (Charger
Couplet Device) di 5 megapixel e priva di parametri calibrazione interni che sono stati quindi ricavati
tramite procedura di calibrazione in laboratorio attraverso il modulo Camera Calibrator del software
PhotoModeler Pro 5.
Figura 2.22 - La fotocamera digitale amatoriale Nikon Coolpix 5400.
Le prese sono state effettuate con l'obbiettivo zoom Nikkor 4X della fotocamera nella posizione
grandangolare, con una distanza focale pari a c = 29 mm. Non è stato possibile adoperare l'obbiettivo
zoom della Nikon in posizione teleobbiettivo poiché non sono noti i parametri di calibrazione che ha
portato a numerosi problemi. Per avere una precisione di 2 cm è stato necessario eseguire prese
58
molto ravvicinate all'arco che non ha permesso di inquadrare il monumento nella sua interezza, se
non inclinando di molto l'asse delle prese rispetto all'orizzontale (circa 24°).
Non disponendo di un carrello elevatore o di un teleobiettivo calibrato si è cercato di intervenire sulla
precisione del rilevo fotogrammetrico migliorando la precisione dei punti da rilevare effettuando
innumerevoli prese fotografiche, in modo che ogni punto della struttura da rilevare venga
visualizzato in media su 10 fotogrammi, aumentando così la ridondanza delle misure.
Per ridurre al minimo le occlusioni prospettiche è stata utilizzata una scala, guadagnando quota e
permettendo di migliorare le precisioni medie del rilievo. Le prese fotogrammetriche sono state
eseguite da postazioni definite intorno all'arco in modo da avere una sovrapposizione dei fotogrammi
del 60%, per migliorare l'orientamento relativo dei fotogrammi e la ricostruzione del modello
tridimensionale dell'arco.
La calibrazione della camera è stata eseguita in laboratorio utilizzando il modulo Camera Calibrator
del software PhotoModeler Pro 5, che ha fornito i valori qui di seguito riportati.
Figura 2.23 – Parametri di calibrazione della camera amatoriale digitale Nikon Coolpix 5400.
59
Figura 2.24 – Planimetria della zona intorno all'arco e indicazione della posizione ed assetto delle prese
fotogrammetriche.
60
Figura 2.25 – Vista dall'alto dell'arco d'Augusto con indicazione della posizione ed assetto delle prese eseguite.
2.1.4.2 Il rilievo topografico speditivo
• La cordella metrica: unico strumento utilizzato in grado di realizzare delle misurazioni
topografiche sul monumento, in seguito utilizzate per definire dei vincoli di distanza fra i
punti artificiali materializzati sulla struttura tramite target tape adesivi. Le misure di distanze
prese con la cordella metrica sono state fondamentali per scalare il modello tridimensionale
in fase di elaborazione.
61
• I target tape adesivi: sono
materializzazioni di punti stabili
sulla struttura utilizzati come punti
fotogrammetrici di appoggio. La
sistemazione dei target tape
adesivi è stata concentrata nella
parte bassa della struttura e tramite
l'impiego di una scala sono stati
posizionare fino ad una quota di
circa 3.80 m da terra. La
compensazione della collocazione
errata dei target tape è stata
possibile mediante l'applicazione
molti target, 25 in totale su
entrambe i fronti dell'arco.
Svolgendo 25 misure in totale tra i target tape si è cercato di compensare al massimo il fatto
di non aver misure sulla sommità dell'arco, difatti la propagazione della varianza delle
coordinate dei punti rilevati è stata minore delle aspettative.
• Il filo a piombo: è stato utilizzato tre volte in tre diverse postazioni, in modo da avere la
definizione di tre linee verticali su cui indirizzare l’asse z del sistema di riferimento locale.
Questo è stato legato all'estremità di una barra in plastica e vincolata mediante la pressione
esercitata dalle mani di un operatore sull'altra estremità. Il filo a piombo è stato diviso in due
campi di lunghezza nota, mediante tre palline di colore bianco sistemate sullo sviluppo del
filo, le tre palline sono state pensate appositamente per essere collimate facilmente, così da
determinare poi la posizione spaziale nel sistema di riferimento prescelto.
2.1.4.3 Analisi del Data Set a disposizione
L'elevata altezza dell’arco e la non disponibilità di elevatori è un problema che è stato risolto
tramite l'impiego di una scala. Questa è stata utile sia per realizzare le prese e sia per il
posizionamento dei target adesivi. La realizzazione di tantissime prese ha permesso di avere una
notevole ridondanza nella misura dei punti di quota elevata, perciò la scala di restituzione finale di
Figura 2.26 – Target Tape
62
1:100 con un errore massimo di circa 2 cm, ha determinato una scala del fotogramma di circa 4 volte
la scala finale, considerando un errore di graficismo di 0,2 mm.
Per la copertura fotografica in pianta dell’oggetto, la serie di immagini è quella tradizionale con
scatti successivi a distanze tra 1/3÷1/4 della distanza oggetto (Z), in modo da garantire un
ricoprimento tra loro di almeno il 60%.
63
2.2 IL PROCESSO FOTOGRAMMETRICO PER LA GENERAZIONE DI UN MODELLO
VETTORIALE E RASTER
2.2.1 Strategia per la generazione della nuvola di punti densa e per la sua georeferenziazione
1. PhotoScan preferences: aprendo questa finestra di dialogo dal menu strumenti, si può
utilizzare questo comando per impostare i seguenti parametri:
• nella scheda Generale: disabilitare la modalità stereoscopia e mettere la sua parallasse a 1.0.
• nella scheda OpenCL: modificare il numero di core di CPU attivi, solitamente questo
dispositivo viene abilitato.
• nella scheda Avanzata: il livello di compressione della scheda deve essere 6, è necessario
tenere abilitato sia le mappe di profondità che il controllo degli aggiornamenti sul programma
star-tup, mentre la memorizzazione dei percorsi di immagine assoluta e il supporto VBO,
disabilitato.
Figura 2.27 – Scheda Generale del comando PhotoScan Preferences.
64
Figura 2.28 – Scheda OpenCL del comando PhotoScan Preferences.
2. Add Photos: per aggiungere foto basta selezionare il comando dal menu di lavoro
(Workflow) e nella finestra di comando scegliere la cartella di origine, selezionando le foto
che si ha intenzione di usare e aprirle nell'area di lavoro.
3. Intelligent Scissors: comando utilizzato per la creazione delle “Masks”, ovvero
l’individuazione dell’oggetto nella foto di nostro interesse. La forbice intelligente è un
comando utilizzato per generare una selezione dell’oggetto definendo il suo confine. Il
confine è formato selezionando una sequenza di vertici con il mouse, che sono
automaticamente collegati con segmenti. Per terminare la selezione bisogna chiudere il limite
65
facendo clic sul primo vertice di contorno. Le maschere possono anche essere sia importate
che esportate cliccando semplicemente sul comando corrispondente.
Figura 2.29 – Contorno della mask tracciato sulla foto tramite il comando “Intelligent Scissors”.
66
Figura 2.30 - Mask ottenuta tramite il comando, la regione di foto di colore bianco sarà quella effettivamente
utilizzata per la creazione della nuvola di punti.
67
4. Align Photos: tramite questo comando PhotoScan affina la posizione della telecamera per
ogni foto e costruisce la nuvola di punti sparsa del modello. E’ consigliabile impostare i
seguenti parametri nella finestra di dialogo :
• Precisione: High, l'impostazione di precisioni sempre maggiori aiuta ad ottenere una stima
della posizione della fotocamera sempre più precisa.
• preselezione della coppia: Disabled (disabilitato).
• vincolare le caratteristiche di maschera: Yes, (attiva nel caso in cui nelle aree sono state fatte
le masks prima del trattamento), se questa opzione è attivata vengono scartati caratteristiche
rilevate nelle regioni immagine mascherate.
• punto limite: 40000, il numero indica il limite superiore di punti caratteristici su ogni
immagine per essere presi in considerazione durante la corrente fase di elaborazione.
Figura 2.31 – Finestra di comando per l’invio di “Align Photos”.
68
5. Build Dense Point Cloud: basandosi sulle posizioni stimate della telecamera, viene calcolato
automaticamente l’informazione di profondità per ogni macchina fotografica in modo da
combinarli in una singola nuvola di punti densi. Selezionando il comando da Batch Progress,
è consigliabile usare i seguenti parametri:
• qualità: Ultra High, esso specifica la qualità di ricostruzione desiderata. Impostazioni di
qualità superiore possono essere utilizzate per ottenere forme geometriche precise e nuvole
dettagliate, ma richiedono più tempo per l'elaborazione.
• profondità-filtro: Agressive (aggressivo), nella fase di ricostruzione della generazione di nube
densa, il software calcola mappe di profondità per ogni immagine. Si utilizza questo
parametro se l’area che deve essere ricostruita non contiene piccoli dettagli significativi,
quindi è ragionevole scegliere la modalità aggressiva per poter lasciare fuori la maggior parte
dei valori errati (outliers).
Figura 2.32 – Finestra di comando di “Build Dense Cloud”.
69
6. Build Mesh: basandosi sulla nuvola di punti densa è stato possibile tramite questo comando la
creazione del modello mesh poligonale. Selezionando questo comando in Batch Progress
sono stati impostati i seguenti parametri consigliati:
• Tipo di superfici: Arbistrary (arbitrario), può essere utilizzato per la modellazione di
qualsiasi tipo di oggetto. Dovrebbe essere selezionato per gli oggetti chiusi ed edifici.
• dati di origine: Dense Cloud, specifica la fonte per la procedura di generazione di mesh,
questo comando genererà un output di alta qualità basato sulla nuvola di punti densa
precedentemente ricostruita.
• numero di poligoni: High, specifica il conteggio massimo delle facce delle mesh finale.
• interpolazione: Enabled (abilitato), parametro di interpolazione di alcune aree di
superficie all'interno di un cerchio di un determinato raggio intorno ad ogni punto di
nuvola densa. Di conseguenza alcuni fori possono essere coperti automaticamente.
• classi di punti: specifica le classi della nuvola densa da utilizzare per la generazione di
mesh.
Figura 2.33 – Finestra di comando di “Build Mesh”.
70
7. Place Markers: i marcatori
vengono utilizzati per
l'impostazione di un sistema di
coordinate, per ottimizzare
l'allineamento delle foto,
misurare distanze e volumi
all'interno della scena così come
per l'allineamento del blocco
basato su marker. Le posizioni
di marcatori sono definiti dalle
loro proiezioni sulle foto di
origine.
Nell'approccio guidato la
proiezione del marcatore viene
specificato per una singola foto,
e PhotoScan automaticamente
proietta il raggio corrispondente
sulla superficie del modello e
calcola le proiezioni marcatore
sul resto delle foto dove il
marcatore è visibile. Le proiezioni dei marcatori definite automaticamente sulle singole foto
possono essere ulteriormente perfezionate manualmente. La superficie del modello 3D
ricostruito è necessario per l'approccio guidato. Il posizionamento guidato del marcatore
accelera la procedura di posizionamento.
Quando la geometria è costruita, si apre una foto dove un target tape adesivo è visibile nella
foto e facendo doppio clic sull’icona nel riquadro foto. Tramite lo zoom si mette il
segnapunto nel punto corrispondente dell’immagine utilizzando il comando Create Markers
dal menu di scelta rapida di foto disponibile con il tasto destro del mouse. E’ necessario
controllare e nel caso sia necessario posizionare l’indicatore per fornire la massima precisione
trascinandolo semplicemente.
Figura 2.34 – Posizionamento di un marker sulla foto.
71
8. Scale Bar: comando necessario per l’impostazione nel panel Ground Control, è una misura
di distanza nota tra due Markers individuati manualmente. E' la rappresentazione di qualsiasi
distanza all'interno della scena, è un pratico strumento per aggiungere i dati di controllo
solidali al suolo o con il tuo progetto, procedura operativa:
• posizionare i marcatori manualmente sui fotogrammi;
• selezionare i marcatori nel riquadro Ground Control utilizzando il tasto Ctrl;
• Selezionare ScaleBar dal menu di scelta rapida di vista 3D, verrà creata la barra della scala e
aggiunto all'elenco anche la barra della scala nel riquadro di controllo a terra
• facendo doppio clic sulla casella accanto al nome della barra di scala appena creato, si può
immettere la lunghezza nota della barra in metri.
9. Update: utilizzando questo comando si effettua la trasformazione conforme
(effettivamente consiste solo nella scalatura del modello). Dopo aver regolato i marcatori
sulle foto, non verrà aggiornato il sistema di coordinate automaticamente. Deve essere
aggiornato utilizzando questo strumento.
10. Ground Control Settings: è il comando dell’impostazione di un sistema di riferimento.
Per ottimizzare l'allineamento delle foto nella finestra del dialogo impostazioni di controllo di
terra specificare la precisione presupposta di ground control settings, come pure la precisione
presupposta di proiezioni di marcatore sulle foto di origine e indicare la macchina fotografica
relativa alle coordinate del dispositivo GPS (se presente), [41].
72
Figura 2.35 – Finestra del comando di Ground Control Settings.
11. E’ necessaria l’esportazione della nuvola di punti dal software Agisoft PhotoScan, per la
realizzazione di sezioni e per misurazione delle distanze tra i diversi punti della nuvola nel
software CloudCompare. Si può accedere tramite File > Export Points, da qui si aprirà la
finestra di comando dove si specifica la cartella ed il formato per l’esportazione:
OBJ_LAS_LAS.
2.2.1.1 Il formato di scambio dei dati LASer
E' il formato di file per lo scambio tra utenti dei dati tridimensionali, ovvero per
l’archiviazione efficiente e compatta della nuvola di punti; utile a garantire l’interoperabilità dei dati
stessi, [2].
Questo formato è diventato presto lo standard de facto per l'archiviazione di nuvole di punti
acquisite da LiDAR, un'alternativa ai proprietary systems o al generico file ASCII. In origine, i
fornitori di dati e le aziende di software utilizzavano formati proprietary systems diversi per
memorizzare i dati, con la conseguenza che il formato di un fornitore non era sempre compatibile
con tutti i pacchetti software utilizzati dai potenziali clienti. Mentre nel file di testo ASCII si
73
memorizzavano i dati con informazioni scritte come una serie di valori separati da virgole. A causa
della ricchezza di informazioni contenute nei dati LiDAR, il file ASCII diventava molto grande, con
la conseguenza che erano file pesanti e la loro memorizzazione poteva garantire solo una quantità
relativamente piccola di informazioni.
Il nuovo formato LAS è un formato binario che memorizza i metadati LiDAR e tutte le
informazioni contenute in una nuvola di punti 3D in una forma relativamente compatta. I vantaggi
nell’utilizzo di questo sono relativi alle dimensione più piccole dei file, alla facilità di utilizzo dei
dati ed in generale una grande versatilità. Permette infatti di assegnare ogni punto della nuvola ad
una classe, ciò consente di archiviare tutta la nuvola di punti conservando l’integrità
dell’informazione geospaziale acquisita, e di creare prodotti derivati a più alto valore aggiunto dal
dataset stesso, senza alterare la consistenza della nuvola di punti stessa, [21].
2.2.2 Studio geometrico del modello 3D
Per lo studio geometrico della struttura si è adoperato il software CloudCompare, un software open-
source per la realizzazione di sezioni, profili e misure dirette sulla nuvola di punti. Questo
programma è stato creato principalmente per trattare le nuvole di punti 3D. Originalmente esso è
stato creato per eseguire un confronto diretto tra nuvole di punti 3D denso, [15]. La sua procedura
operativa consiste in:
• Una volta trasportato il modello dal software Agisoft PhotoScan in formato OBJ_LAS_LAS, si
apre il software CloudCompare. Con questo programma l’utente può modificare il sistema di
coordinate locale pur mantenendo quello globale.
• E’ buona norma creare tramite il comando Edit il clone della nuvola di punti, in modo da
lavorare su di esso.
• Lo strumento accessibile tramite il menu Tools > Point picking, consente all’utente di
selezionare uno, due o tre punti in modo da ottenere le informazioni su di esso. Diversi tipi di
etichetta possono essere creati in questo modo, questa etichetta conterrà tutte le informazioni
disponibile circa il punto, ovvero coordinare locali, coordinate globali, indice di punto e
l’associazione al valore scalare (se il campo scalare è attivo).
74
Con l’icona l’utente può selezionare due punti e visualizzare un’etichetta di distanza,
questa visualizzerà principalmente la distanza tra i due punti selezionati e inoltre la distanza
algebrica lungo le direzioni X, Y e Z e le distanze nei piani XY, XZ e ZY.
Figura 2.36 – Misura effettuata tra due punti tramite il comando Point picking.
• Lo studio geometrico orizzontale è stato possibile grazie al comando accessibile secondo il
percorso Tools > Segmentation > Cross Section. Per eseguire le sezioni ortogonali si ricorre a
modificare dell’estensione del riquadro orientamento, trascinando gli Interattori (grandi
frecce rosse, verdi e blu) in modo da spostare i contorni di casella di ritaglio direttamente
della vista 3D. Altrimenti si può eseguire questa operazione numericamente modificando
direttamente le dimensioni della scatola (larghezza, profondità ed altezza) con i campi X Y Z.
Per l’estrazione di più sezioni si può utilizzare l’icona Extract mutiple slices,
automatizzando l’estrazione di sezioni successive. I parametri da tenere in considerazione
sono:
• Specificare se si desidera l’estrazione del contorno esplicitamente, altrimenti saranno create
solo delle sezioni;
• Nel ripetere dimensione, ovvero il processi di estrazione può essere ripetuto in una o più
dimensioni se si desidera;
• Gap: può essere aggiunto un divario tra ogni sezione;
• Colori per sezione: se selezionato verrà assegnato un colore casuale per ogni sezione.
75
Figura 2.37 – Si può notare l’estensione del riquadro orientamento con gli interruttori, che può essere
modificato con esso o tramite la finestra di dialogo modificando direttamente i comandi XYZ.
Figura 2.38 – Finestra di dialogo dell’icona Extract mutiple slices.
76
• Lo studio geometrico verticale è stato possibile grazie al comando accessibile secondo il
percorso Tools > Segmentation > Extract sections. Questo strumento permette all’utente di
disegnare o importare polilinee sulla cima di una nuvola di punti in modo da estrarre sezioni e
profili. La procedura viene effettuata selezionando uno o più nuvole di punti e lanciare questo
strumento, verrà creata una visualizzazione 3D dedicata e apparirà una finestra nella zona a
destra di questa vista 3D.
Selezionando l’icona viene attivata la polilinea, disattivando le altre. Per la creazione di
una polilinea su una nuvola di punti fare click sul tasto sinistro del mouse per creare un nuovo
vertice e click destro per interrompere la polilinea. Un secondo click sull’icona disattiva la
modalità polilinea, rendendo accessibili gli altri strumenti.
Figura 2.39 – Creazione di una polilinea per la realizzazione di una sezione verticale della nuvola di punti con il
comando Extract sections.
• Per la generazione di nube a sezioni e profili, bisogna cliccare sull’icona Extract points
along active sections. Questo per ogni sezione/polilinea, estrarrà tutti i punti all’interno di
uno spessore da specificare.
77
Figura 2.40 – Finestra di comando dell’icona Extract points along active sections.
2.2.3 Sezioni e profili della nuvola densa di punti
Per giungere al prodotto con il maggior numero di punti trovati dalla creazione della nuvola
sono stati fatti molteplici esperimenti. Inizialmente il progetto prevedeva l’utilizzo dello stesso
database di foto utilizzato dall’ing. Serpieri, ma il numero troppo limitato di fotogrammi non ha
portato ad un risultato soddisfacente. La nuvola sparsa di punti derivante dal database di foto
precedentemente citato ha generato un prodotto di soli 62272 punti che ha portato alla creazione di
una nuvola densa di soli 6819975 punti.
Nella seconda fase del progetto sono stati utilizzati 132 fotogrammi, ricavando nella fase di
allineamento dei fotogrammi 109818 punti, numero nettamente superiore rispetto a quello ottenuto
con i fotogrammi dell’ing.Serpieri.
Successivamente con l'obiettivo di ottenere una densità della nuvola di punti il più elevata
possibile, utilizzando tutte le 149 foto a disposizione. Quest'ultima fase di prova, non ha portato ai
risultati attesi a causa della presenza di foto con prese effettuate da troppo lontano rispetto al
monumento e di foto con zoom elevati, creando un modello distorto.
78
Successivamente a questa serie di prove rimuovendo le foto ritenute non indispensabili alla
creazione del modello, ovvero quelle con zoom elevati e quelle effettuate con prese troppo lontane
rispetto all’arco.
Sono state quindi eliminate le foto denominate:
• 41 ZOOM MAX;
• DSCN 3000;
• DSCN 3002 ZOOM MAX;
• DSCN 3003;
• DSCN 3009;
• DSCN 3025;
• DSCN 3027;
• DSCN 3028.
Questo nuovo database di immagini composto da 141 foto è stato modificato in relazione
all’istogramma dei valori di grigio attraverso il software Photoshop.
L'istogramma rappresenta è il metodo più veloce per avere un quadro immediato della distribuzione
radiometrica delle immagini. Se l’immagine è di buona qualità cromatica, l’istogramma dei valori di
grigio può assumere una forma a campana tipica della distribuzione Gaussiana che copre tutta
l’ampiezza disponibile dei valori radiometrici, in caso contrario si può modificare con l’operazione
di espansione della scala dei livelli radiometrici per esaltare il contrasto dell’immagine rendendola in
tal modo più nitida e definita.
79
Figura 2.41 – Foto n°33 originale. Prospetto verso Rimini.
80
Figura 2.42 – Foto n°33 al termine delle modifiche all’istogramma dei valori di grigio, effettuate tramite il software
Photoshop. Prospetto verso Rimini.
81
Figura 2.43 – Istogramma dei valori di grigio della foto originale n°33
Figura 2.44 – Istogramma dei valori di grigio della foto n°33, al termine delle modifiche effettuate tramite il software.
82
Al termine dell'operazione di modifica dell'istogramma dei valori di grigio delle foto del
database a disposizione vengono importate le foto sul software Agisoft Photoscan utilizzando l'icona
del comando Add Photos. La mascherazione delle foto tramite il comando inteliggent scissors è utile
per scartare nelle operazioni successive le caratteristiche rilevate nelle regioni immagine mascherate.
Tale operazione effettuata interamente manualmente tramite il tracciamento dei contorni dell'arco
con una polilinea composta da segmenti.
Una volta create le masks utilizzando il comando Align Photos si ottiene la nuvola di punti
sparsa, con l’impostazione di un grado di precisione High, vincolando le caratteristiche di maschera,
vengono impiegate in totale 00:14:36 ore. Al termine dell'elaborazione avendo ricavato un numero di
116528 punti, si è resa necessaria un’accurata rimozione manuale degli errori grossolani,
selezionandoli direttamente sulla nuvola di punti sparsi ed impiegando complessivamente un’ora di
tempo. L’operazione manuale precedentemente citata ha portato ad una varizione del numero di
punti da 116528 a 112635 punti per la successiva procedura di densificazione.
Figura 2.45 – Nuvola sparsa di 116528 punti, ottenuta dal calcolo tramite il comando Align Photos, prima della
rimozione manuale degli errori grossolani. Prospetto verso Rimini.
83
Figura 2.46 – Nuvola sparsa di 112635 punti, al termine dell'operazione di rimozione manuale degli errori grossolani.
Prospetto verso Roma.
Nella finestra di dialogo del comando Build dense, per l'ottenimento della nuvola densa di
punti, si è richiesto un elevato grado di qualità Ultra High e un grado di calcolo delle mappe di
profondità per ogni immagine Agressive. Il tempo di elaborazione del computer è stato di 06:03:07
ore, al termine del quale sono stati ottenuti 36178318 punti. Anch’esso richiedendo l’intervento
manuale di selezione diretta sugli errori grossolani, ove sono state necessarie 4 ore, ricavando infine
35708544 punti.
Figura 2.47 – Nuvola di punti densa di 36178318 punti, ottenuto dall’invio del comando Build Dense, antecedente alla
operazione di rimozione degli errori grossolani. Prospetto verso Roma.
84
Figura 2.48 – Nuvola di punti densa di 35708544 punti, ottenuta dopo la rimozione degli errori grossolani. Prospetto
verso Rimini.
Il comando Build Mesh, imponendo un conteggio massimo High delle facce delle mesh
finale, ha impiegato un’elaborazione di 00:25:12 ore , e ottenendo 7141707 faces.
Figura 2.49 – Nuvola di punti di 7141707 faces, meshatura ottenuta al termine dell'elaborazione inviata tramite il
comando Build Mesh. Prospetto verso Roma.
85
Figura 2.50 – Prospetto verso Rimini.
Figura 2.51 – Prospetto verso Roma.
86
Il modello tridimensionale ricavato dall'elaborazione di queste operazioni che rende possibile
il posizionamento dei Markers; utilizzando l’approccio guidato quindi la proiezione del marcatore
specificato per una singola foto si ottiene la proiezione su tutte le foto. Il software automaticamente
proietta il raggio corrispondente sulla superficie del modello e calcola le proiezioni del marcatore sul
resto delle foto dove il marcatore è visibile, questa operazione non ha impiegato un tempo elevato,
all’incirca mezz’ora.
La Scale Bar nel panel Ground Control, ha permesso di impostare le misure di distanza nota
tra due Markers individuati manualmente, impostando per ogni coppia di markers, tutte le misure
ricavate dal rilievo metrico.
Utilizzando il comando Update si effettua la scalatura del modello tridimensionale, effettuata
la trasformazione conforme, ed inviato questo comando, si è evidenziato l’errore grossolano di
alcune misure. Quindi si è deciso di utilizzare un’unica misura tra due markers certi e posizionati
correttamente, questa misura rappresenta la distanza tra il marker 6 ed il marker 7 (chiamati 1827 e
1829 nelle monografie per l'identificazione dei target tape) di 9,18 m, misura raccolta per mezzo
della cordella metrica nel rilievo. Questa unica distanza ha un grado di errore di solo 0,018 m,
ritenuto accettabile.
Figura 2.52 – Rappresentazione della disposizione dei due markers nel modello 3D, della relativa distanza di 9,18 m e
dell’errore calcolato dal comando Update di 0,018 m.
87
Una volta ottenuto un modello scalato, tramite il comando Ground Control Settings si è
impostato un sistema di riferimento.
La realizzazione di prospetti e sezioni, effettuata grazie all’esportazione della nuvola di punti
dal software Agisoft PhotoScan al software CloudCompare in formato OBJ_LAS_LAS.
I termini orizzontali e verticali relativi al sistema di coordinate relativo ottenuti attraverso la
procedura di scalatura del sistema relativo. Si tratta quindi di sezioni perpendicolari all'asse Z e di
profili perpendicolari al piano XY. Con orizzontale e Verticale si fa infatti riferimento alla Verticale.
Nel rilievo la verticalità non è stata determinata in modo rigoroso.
Una volta entrati nell’area di lavoro del software CloudCompare notando che le coordinate locali di
origine del sistema di riferimento comprendevano valori negativi, per il trattamento si è preferito
creare un nuovo sistema di riferimento di coordinate positive.
Figura 2.53 – Confronto numerico tra i due sistemi di coordinate locali, negativo a sinistra e quello nuovo positivo a
destra.
88
Figura 2.54 – Prospetto ortogonale dall’alto.
Figura 2.55 – Prospetto ortogonale dal basso.
Figura 2.56 – Prospetto ortogonale frontale (lato verso Rimini).
89
Figura 2.57 – Prospetto ortogonale frontale (lato verso Roma).
90
Figura 2.58 – Prospetto ortogonale laterale verso monte.
91
Figura 2.59 – Prospetto ortogonale laterale verso mare.
92
Lo studio geometrico delle sezioni, sia orizzontali che verticali, che si effettua utilizzando
rispettivamente i comandi di Cross Section ed Extract Section, permettono di ottenere sezioni
dell’arco d’Augusto in pochissimo tempo e con un livello di precisione in relazione alla nuvola di
punti esportata.
• Per le sezioni orizzontali effettuate con il comando Cross Section, si è ricorso alla modifica
numerica delle dimensioni della scatola (larghezza, profondità ed altezza) con i campi X Y Z,
imponendo un’altezza della scatole nella direzione Y di 0,05 m. Successivamente per
l’estrazione di più sezioni si utilizza Extract mutiple slices, che automatizza l’estrazione di
sezioni successive. Modificando il parametro Gap ed impostandolo a 5 m, è possibile ottenere
nel complesso tre sezioni orizzontali dell’arco.
Figura 2.60 – Sezioni orizzontali, vista dall’alto.
Figura 2.61 – Sezioni orizzontali, vista prospettica.
93
Figura 2.62 – Inquadramento delle sezione orizzontali sul modello tridimensionale. Prospetto verso Rimini.
Figura 2.63 – Inquadramento delle sezione orizzontali sul modello tridimensionale. Prospetto verso Roma.
94
Figura 2.64 – Inquadramento della posizione in cui sono state realizzate le sezioni orizzontali nel modello
tridimensionale dell’arco. Prospetto verso monte.
95
Figura 2.65 – Inquadramento della posizione in cui sono state realizzate le sezioni orizzontali nel modello
tridimensionale dell’arco. Prospetto verso mare.
96
Lo studio geometrico vertical reso possibile grazie al comando Extract section che permette
di tracciare delle polilinee sulla cima della nuvola di punti, in modo da estrarre le relative
sezioni. Per la generazione della nube a sezioni, si utilizza il comando Extract points along
active sections, che estrae tutti i punti all’interno di uno spessore di 0,05. Da questo studio si
ottengono complessivamente due sezioni verticali mostrate nelle figure seguenti da 2.66 a
2.70, con i colori verde e nero.
Figura 2.66 – Le sezioni verticale di colore verde e nero vengono mostrate in concomitanza con quelle orizzontali di
colore bianco, rosso e blu. Dall’immagine si nota che la polilinea delle sezioni non è completa, questo è dato dal
numero di punti trovati sulla nuvola. Difatti maggiore sarà il numero di punti esportato sul software CloudCompare,
migliori saranno le estrapolazioni delle sezioni dalla nuvola di punti e quindi una migliore determinazione delle
misure sulle sezioni.
97
Figura 2.67 – Sezioni orizzontali e verticali nel modello 3D dell’arco. Prospetto verso Rimini.
Figura 2.68 – Sezioni orizzontali e verticali nel modello 3D dell’arco. Prospetto verso Roma.
98
Figura 2.69 – Inquadramento della posizione in cui sono state realizzate le sezioni orizzontali e verticali nel modello
tridimensionale dell’arco. Prospetto verso monte.
99
Figura 2.70 – Inquadramento della posizione in cui sono state realizzate le sezioni orizzontali e verticali nel modello
tridimensionale dell’arco. Prospetto verso mare.
100
2.2.3.1 Monografie delle distanze di controllo
Il rilievo metrico dell’arco è stato effettuato grazie all’ausilio di una cordella metrica,
strumento modesto, prendendo le misure tra due punti di riferimento sull’arco. I punti, materializzati
con l’applicazione di target tape adesivi, identificati con un numero specifico, sono stati
successivamente utilizzati dal software CloudCompare, con il comando Point picking, rendendendo
possibile ricavare le misure direttamente sul modello tridimensionale grazie alla materializzazione
dei targer tape nella nuvola di punti creata dal software Agisoft Photoscan. Inoltre sono state rilevate
anche le quote di distanza nelle sezioni.
Le misure rilevate tra due target tape e nelle sezioni vengono riportate qui di seguito nelle
monografie da 2.71 a 2.76.
Figura 2.71 - Monografia dei punti 1827, 1828, 1829. I punti 1827 e 1829 corrispondono nel modello tridimensionale
creato con il software Agisoft PhotoScan ai markers denominati 6 e 7, unica misura con il quale è stato scalare il
modello. Prospetto dell'arco vero Roma.
101
Figura 2.72 - Monografia punti 1821,1822, 1823, 1824. Prospetto dell'arco verso Rimini.
Figura 2.73 - Monografia dei punti 62, 62. Prospetto lato monte.
102
Figura 2.74 - Monografia dei punti 48, 49. Prospetto lato mare.
103
Figura 2.75 - Monografia dei punti 77,78. Prospetto lato monte.
104
Figura 2.76 - Monografia del prospetto verso Rimini contenente le misure dell'arco ricavate dalle sezioni effettuate con il
software CloudCompare.
105
2.2.4 Confronto numerico dei prodotti ottenuti
Confrontando il software PhotoModeler e il software Agisoft PhotoScan, è chiara la
differenza in termini di tempo impiegato nell'elaborazione di un modello tridimensionale e di
automazione del processo.
Il software PhotoModeler necessita di molte ore di lavoro, e l’intervento manuale da parte di
un tecnico è di fondamentale importanza. Il modello geometrico 3D viene ricavato restituendo la
struttura completamente a mano, senza alcuna procedura automatizzata da parte del software, ovvero
collimando manualmente 27300 punti su 52 foto differenti dell’arco d’Augusto di Rimini.
I punti collimati manualmente utili per ottenere in output delle coordinate spaziali di 2855 punti
appartenenti all’arco. Questo metodo che utilizza strumentazioni modeste ed a basso costo, non
permette di ottenere una veloce restituzione, poiché i tempi di elaborazione sono troppo elevati a
causa dell’utilizzo delle procedure manuali.
Diversamente il software Agisoft PhotoScan agisce con una procedura quasi del tutto
automatizzata, che consente di avere in un breve tempo di elaborazione un modello con altissime
precisioni sia dal punto di vista dell’orientamento che della restituzione. Impiegando 141 fotogrammi
del database a disposizione per l’ottenimento della nuvola sparsa di punti sono bastate solo 00:14:36
ore totali, ottenendo un numero di 116528 punti. L’unico intervento manuale effettuato è stato quello
della scelta dei parametri per il calcolo dell’allineamento delle foto e la rimozione di errori
grossolani una volta ottenuto il modello tridimensionale. Lo stesso vale per l’elaborazione del
calcolo della nuvola densa di punti che ha impiegato un tempo 06:03:07 ore, al termine del quale
sono stati ottenuti 36178318 punti. L’imposizione di una misura su cui si è basato il calcolo, ovvero
la distanza tra il marker 6 e il marker 7 (1827 e 1829) di 9,18 m, viene successivamente lanciato il
comando Update, il quale ha portato ad un errore di graficismo di 0,018 m. Questo valore è stato
ritenuto idoneo, poiché al disotto dell’errore di graficismo preventivato di 2 cm. Mettendo a
confronto la misura effettuata nel rilievo tra il targer tape 1827 e 1829, tramite la cordella metrica e
la misura effettuata direttamente sul modello tridimensionale, si nota che il discostamento tra le due
misure è di solo 0,013 m.
Inoltre, è possibile notare come il programma abbia realizzato una nuvola di punti densa
pressochè omogenea, con una interdistanza tra due punti consecutivi media < 1 cm.
106
Dalla tabella in figura (2.71) , si nota il confronto numerico delle misure tra due target tape,
prese con l’ausilio della cordella metrica a destra e a sinistra misurati direttamente sul modello
tridimensionale utilizzando il software CloudCompare con il comando Point picking. La misura che
più si discosta è quella rilevata tra i due punti 1822 e 1823 che ha prodotto un errore di 0,016 m.
Figura 2.77 - Tabella delle differenze tra le misure prese tramite cordella metrica tra due target tape nel rilievo metrico
effettuato da Serpieri e le misure effettuate direttamente sul modello tridimensionale generato tramite il software
Photoscan.
Per quanto riguarda le misure effettuate direttamente sulle sezioni si può notare dalla tabella
in figura (2.72), che i valori si discostano in modo elevato da quelli rilevati. Questo errore è causato
dalla incertezza nel ricavare dalla nuvola di punti le distanze omologhe ottenute dai prospetti CAD
presentati da Serpieri. Tali differenze non risultano pertanto significative.
Figura 2.78 - Tabella delle differenze tra le distanze misurate sulla nuvola di punti e le stesse ricavate dai disegni CAD
presentati da Serpieri.
107
2.2.5 Analisi strutturale dell’arco: un possibile utilizzo del modello vettoriale creato
Il modello vettoriale dell’arco può essere utilizzato oltre che per lo studio geometrico dello stesso
anche per una stima agli elementi finiti del suo comportamento strutturale in assetto statico e/o
dinamico. Tale attività non è però stata affrontata specificatamente nel corso della presente tesi.
Si tratta in ogni caso di un aspetto ingegneristico di grande attualità in quanto non sono ancora
definite le procedure da attuate per importare in modalità automatica densi modelli vettoriali
all’interno dei comuni software commerciali di analisi agli elementi finiti.
Il modello delle azioni esterne, definisce i carichi che agiscono sulla struttura, venendo definiti
dall’applicazione di forze che possono essere statiche o dinamiche.
Per lo studio dell’analisi strutturale, è possibile utilizzare vari tipi di software commerciali o
scientifici. Una semplice indagine è stata realizzata da Serpieri nell’ambito della sua tesi di laurea.
Il metodo F.E.M. (Finite Element Method), fornisce una soluzione approssimata di sistemi di
differenziali alle derivate parziali o ordinarie, che si tramuta nella simulazione dei comportamenti e
problemi fisici-meccanici della struttura. Il metodo tramuta un sistema differenziale di equazioni
qualunque, in uno algebrico risolvibile tramite matrici.
Per importare le geometrie a nuvole di punti rilevate tramite fotogrammetria all’interno dei software
dedicati per le analisi numeriche strutturali F.E.M è necessario possedere una superficie meshata, è
quindi opportuno trasformare preventivamente la nuvola densa di punti in entità superficie (e volumi
chiusi) tramite operazioni di meshatura.
Importata la geometria meshata all’interno dei software per l’analisi strutturale è necessario definire
il sistema di forze esterne, vincoli interni ed esterni che agiscono sulla geometria, nonché il
comportamento reologico e meccanico dei materiali. Definito tutto ciò è possibile valutare la risposta
della struttura sotto le più svariate tipologie di azioni, statiche e dinamiche, valutando anche quello
che oggi più preme alla soprintendenza dei beni culturali: la valutazione di vulnerabilità sismica
degli edifici e monumenti.
Tramite la valutazione di vulnerabilità sismica si arriva a definire il grado di sicurezza e vulnerabilità
della struttura per un dato sisma di riferimento definito dalla normativa italiana N.T.C. 2008 per la
zona sismica in cui sorge l’edificio.
Un indice di vulnerabilità sismica pari o maggiore di 1 indica una struttura non vulnerabile, per
indici inferiori si ha invece una capacità di resistere della struttura inferiore a quanto richiesto dalla
normativa sismica per la zona in questione.
108
Ottenuto un modello numerico strutturale, partendo dall’esatta geometria fornita dalla restituzione
fotogrammetrica, è possibile valutare e indagare situazioni critiche all’interno della struttura,
fessurazioni e meccanismi di distacco. Con la definizione esatta della geometria è possibile indagare
luoghi di concentrazione di tensione, punti critici ove magari è necessario intervenire, valutare
l’influenza dell’azione sismica sulle diverse parti del monumento e notare se vi sono elementi locali
ad elevata criticità che andrebbero collegati o preservati (es. pennacchi, muri snelli, situazioni a
sbalzo, porzioni mal collegate ecc…)
L’analisi numerica strutturale F.E.M. dei monumenti ed edifici in genere permette oggi (grazie anche
a PC sempre più potenti, algoritmi non lineari, definizione di comportamenti meccanici tipo
muratura molto complessi) di avere informazioni dettagliate sullo stato tensionale/deformativo della
struttura, nonché valutare lo stato fessurativo dei materiali non resistenti a trazione (es. muratura), e
quindi poter valutare con maggiore accuratezza le zone ove si possono riscontrare problemi a seguito
di eventi sismici e soprattutto valutare con quale intensità sismica si innescano le prime fessurazioni,
problemi, crolli o distacchi e in quali porzioni della struttura.
Nei casi in cui la geometria è importante per il mantenimento dell’equilibrio della struttura (es. archi
e volte) è necessario restituire e portare entro il modello numerico strutturale una geometria il più
possibile simile alla reale situazione di fatto; diversamente l’analisi strutturale risulterebbe
grossolana ed errata.
Ad oggi le tecniche fotogrammetriche, ed in particolare la SfM, sono in grado di restituire con
precisione complesse geometrie, che sono poi facilmente e prontamente utilizzabili nei modelli
strutturali F.E.M. con costi, tempi e sforzi molto bassi.
Tutto ciò è un enorme vantaggio nell’ottica di far collaborare la disciplina fotogrammetrica con la
scienza e tecnica delle costruzioni.
109
CONCLUSIONI
Nell’ambito della presente tesi, allo scopo di sperimentare una procedura automatica di
orientamento e restituzione implementata in un software di fotogrammetria digitale “a basso costo”,
una serie di attività puramente sperimentali sono state attuate.
Oggetto della sperimentazione è stato il rilievo dell’arco d’Augusto di Rimini eseguito nel 2005
nell’ambito di una tesi di laurea in Ingegneria civile. Tale rilievo fotogrammetrico venne realizzato
da terra, mediante una camera amatoriale digitale a bassa risoluzione, eseguendo prese convergenti
attorno all’arco e definendo mediante misure dirette di distanza, un sistema di riferimento per la
scalatura dei prodotti vettoriali e raster ottenuti. Tale rilievo è stato realizzato utilizzando tecniche
già allora denominate “non convenzionali”. Il termine non convenzionale è comunemente riferito sia
alla strategia di esecuzione delle prese fotogrammetriche, che, all’attrezzatura adoperata, alla
procedura di rilievo topografico adottata e al software scelto per risolvere i problemi di orientamento
e di restituzione dei fotogrammi stessi. Lo stesso data set è stato impiegato nell’ambito della presente
tesi, per sperimentare una metodologia di restituzione interamente automatizzata, implementata in un
software commerciale a basso costo.
Applicando in successione, delle procedure interamente automatiche (allineamento, estrazione delle
caratteristiche, correlazione, orientamento, ricostruzione tridimensionale dell’oggetto),
implementate in un software di fotogrammetria, un modello vettoriale tridimensionale è stato
ottenuto, opportunamente scalato sulla base di una misura di distanza. Per completare la procedura è
stato impiegato complessivamente un tempo di elaborazione di sole 06:42:55, utilizzando un
computer non altamente performante.
L’intervento manuale tecnico è stato reso necessario in tre differenti momenti: per la delimitazione
foto per foto, delle aree di interesse; per la eliminazione degli outliers; per la georeferenziazione del
modello stesso. Tra queste differenti operazioni, quella che ha richiesto un maggiore impiego è stata
quella della creazione delle masks, mentre sufficientemente agevolata è stata la georeferenziazione
del modello. In complesso si stima in circa dieci ore il tempo speso intervenendo manualmente nel
processo di elaborazione.
L’analisi del modello vettoriale ottenuto è stata realizzata impiegando un software open source. Le
procedure di misura sono state eseguite in tempi brevi e senza difficoltà. Il software
(CloudCompare) si è dimostrato elastico e performante nella gestione della nuvola di punti ricavata
dal processo fotogrammetrico.
110
La validazione del modello vettoriale è stata realizzata confrontando distanze omologhe estratte dal
modello ottenuto nel 2005 impiegando procedure semi-automatiche di orientamento e di restituzione.
I risultati evidenziano una buona corrispondenza, con differenze contenute negli errori caratteristici
della tecnica di rilievo adottata. Le fonti di errore che affliggono la consistenza metrica del modello
ottenuto, sono il risultato di molteplici fattori che si sommano e a volte si compensano tra loro.
Come fonti di errore si ricorda ad esempio, la tipologia della fotocamera adottata ( ottica fissa o
variabile; calibrata o amatoriale; la distanza di presa; la risoluzione e la dimensione del sensore CCD
(Charger Couplet Device); la dimensione del pixel sull’oggetto Ground Sampling Distance (GSD);
la geometria delle prese; la ridondanza; il ricoprimento; la tipologia dell’appoggio topografico
adottata; la qualità delle immagini; il contenuto radiometrico delle stesse; la disparità tra immagini
successive; gli algoritmi di correlazione, ecc..
E’ stato dimostrato come, con l’avvento di nuovi ed efficaci algoritmi di correlazione
automatica, derivanti dalla fusione della fotogrammetria digitale con la Computer Vision, oggigiorno
sia possibile la realizzazione in tempi brevi di modelli tridimensionali ad alta risoluzione,
fondamentale per la conoscenza e la documentazione dei Beni Culturali. Le nuove tecnologie
image-based, proprie della Geomatica, permettono di avere un’informazione completa sull'oggetto di
interesse, con costi sempre minori in termini di software e strumentazione utilizzata.
Lo sviluppo della tecnologia avvenuto nell’ultimo decennio abbinata alla ricerca di nuovi algoritmi
di restituzione automatica, ha radicalmente modificato la disciplina della fotogrammetria, rendendola
semplice da attuare ed “alla portata di tutti”.
Di fondamentale importanza anche da un punto di vista ingegneristico è la comprensione degli errori
connessi alle varie procedure di calcolo e la significatività dei risultati ottenuti. Tali valutazioni non
sono sempre ovvie e richiedono competenza e sensibilità nella gestione dei dati e nella esecuzione
delle varie fasi che caratterizzano il rilievo fotogrammetrico.
111
BIBLIOGRAFIA
[0] Maurizio Serpieri, "Rilevamento fotogrammetrico digitale non convenzionale ed analisi
strutturale agli elementi finiti dell'arco d'Augusto di Rimini". Tesi di laurea in Ingegneria Civile,
Università degli studi di Bolgona, A.A. 2004/2005 http://amslaurea.unibo.it/7394/
[1] P.Arias, & G. Rinaldi; (1938), “Il consolidamento dell’arco di Augusto di Rimini”. Giornale del
Genio Civile, n.1.
[2] ASPRS, the imaging & geospatial information society, “LASer (LAS) File Format Exchange
Activities”,http://www.asprs.org/Committee-General/LASer-LAS-File-Format-Exchange-
Activities.html
[3] S. Arya, D.M. Mount, N.S. Netanyahu, R. Silverman, & A.Y. Wu; (1998), “An optimal
algorithm for approximate nearest neighbor searching fixed dimensions”. Journal of the ACM
(JACM), 45(6), 891-923.
[4] S. Aurigemma; “L’arco di Augusto a Rimini”. Estratto da Studi Romagnoli, 3 (1952); Faenza
Lega, 1953.
[5] S. Aurigemma; (1938), La porta augustea di Rimini” in “Ariminum”. Numero speciale per il
bimillenario augusteo, a cura del Comune di Rimini.
[6] H. Bay, A. Ess, T. Tuytelaars, & L. Van Gool; (2008), “Speeded-up robust features (SURF)”.
Computer Vision and Image Understanding, 110(3), 346-359.
[7] J.S. Beis, & D.G. Lowe; (1997), “Shape indexing using approximate nearest-neighbour search in
high-dimensional spaces”. Paper presented at the Computer Vision and Pattern Recognition, 1997.
Proceedings, 1977 IEEE Computer Society Conference on.
[8] M. Bianchini; (2008), versione elettronica, casa editrice Aracne, “Manuale di rilievo e di
documentazione digitale in archeologia”, Cap VI: “La fotogrammetria e il lasercanning”,
http://www.rilievoarcheologico.it/manuale_rilievo8_000006.htm.
[9] Brevetto US 6,711,293.
112
[10] Brevetto US 6,711,293, "Method and apparatus for identifying scale invariant features in an
image and use of same for locating an object in an image", brevetto del metodo di Lowe per
l'algoritmo SIFT.
[11] M. Brighenti; (1825), “Illustrazione dell’arco d’Augusto in Rimini con otto tavole in rame
pubblicata da Maurizio Brighenti”. Marsoner e Grandi.
[12] Prof. Marco Boscolo; (2011), materiale didattico: “Sistemi costruttivi”.
[13] Cannarozzo, Cucchiarini, Meschieri, Zanichelli editore S.p.A.; (2012), “Fotogrammetria”. Vol.
3, modulo T, 3-33.
[14] F. Chiabrando, E. Costamagna, & A.T. Spanò; (2013), “La correlazione di immagini per la
generazione di modelli 3D per il patrimonio costruito”. Territorio Italia, 1(1), 53-66.
[15] CloudCompare v2.6.1-User manual.
[16] M.A. Fischler, R.C. Bolles; (1981), “Random sample consensus: a paradigm for model fitting
with applications to image analysis and automated cartography”. Communications of the ACM,
24(6), 381-395.
[17] Fotografare in digitale; (2015), “Lezione 1 La macchina fotografica”,
http://fotografareindigitale.blogspot.it/2015/07/lezione-1-la-macchina-fotografica.html .
[18] C.S. Fraser; (1997), “Digital camera self-calibration”. ISPRS Journal of Photogrammetry and
Remote Sensing, 52(4), 149-159.
[19] J.H. Friedman, J.L. Bentley, & R.A. Finkel; (1977), “An algorithm for finding best matches in
logarithmic expected time”. ACM Transactions on Mathematical Software (TOMS), 3(3), 209-226.
[20] P.L. Foschi, & P.G. Pasini; (1998), L’arco d’Augusto – Significati e vicende di un grande segno
urbano”. Musei Comunali Rimini e Rolo banca.
[21] Geospatial news; (2011), “L'uso del formato LAS in ERDAS Imagine”,
http://geospatialnews.planetek.it/2011/08/luso-del-formato-las-in-erdas-imagine.html
[22] G. Gerola; (1912), “nella Soprintendenza ai monumenti della Romagna. Rimini, l’arco
d’Augusto”. In “felix Ravenna”, n. 5.
113
[23] C. Harris, & M. Stephens; (1998), “A combined corner and edge detector”. Paper presented at
the Alvey vision conference.
[24] T. Lindeberg; (1998), “Feature detection with automatic scale selection”. International Journal
of Computer Vision, 30(2), 79-116.
[25] A.M. Lingua, D. Marenchino, & F.C. Nex; (2008), “L’operatore SIFT per l’orientamento di
immagini acquisite con prese non-normali”. Atti 12a Conferenza Nazionale ASITA, L’Aquila 21-24
ottobre 2008, 1339-1345.
[26] D.G. Lowe; (1999), “Object recognition from local scale-invariant features”. Paper presented
at the Computer Vision, 1999, vol. 2, 1150–1157. The proceedings of the seventh IEEE international
conference on Computer Vision.
[27] D.G. Lowe; (2004), “Distinctive image features from scale-invariant keypoints”. International
Journal of Computer Vision, 60(2), 91-110.
[28] G.A. Mansuelli; (1944), “L’arco di Augusti di Rimini”. Estratto da Emilia Romagna, vol. 2;
Firenze, Marzocco.
[29] G.A. Mansuelli; (1959), “Il monumento augusteo del 27 a.C. Nuove ricerche sull’arco di
Rimini”. In “Arte antica e moderna”.
[30] J.-M. Morel, & G. Yu; (2009), “ASIFT: A new framework for fully affine invariant image
comparison”. SIAM Journal on Imaging Sciences, 2(2), 438-469.
[31] F. Remondino; (2006), “Detectors and descriptors for photogrammetric applications”.
International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, 36(3),
49-54.
[32] F. Remondino, Maria Grazia Spera, Erica Nocerino, Fabio Menna, Francesco Nex; (2014),
“State of the art in high density image matching”. The photogrammetric Record, 29(146), 144-166.
[33] G. Rinaldi; (1948), “La tecnica dei consolidamenti per il ripristino dei monumenti danneggiati
da eventi bellici ( Arco d’Augusto e Tempio Malatestiano in Rimini)”. Conferenza tenuta alla
Fondazione F.lli Pesenti del Politecnico di Milano.
[34] L. Rossini; (1836), “Gli archi trionfali degli antichi romani”.
114
[35] R. Roncella; (2007), “Sviluppo e applicazioni di tecniche di automazione in fotogrammetria dei
vicini”. Ricerche di Geomatica, Mestre, 119-128.
[36] S.M. Seitz, B. Curless, J. Diebel, D. Scharstein, & R. Szeliski; (2006), “A comparison and
evaluation of multi-view stereo recostruction algorithms”. Paper presented at the Computer Vision
and pattern recognition, 2006 IEEE Computer Society Conference on.
[37] L. Tonini; (1848), “Storia di rimini”, vol. I e II.
[38] L. Tonini; (1848), “Rimini avanti il principio dell’era volgare”.
[39] L. Tonino; (1867), “Atti e memorie”.
[40] T. Temenza; (1741), “Dalle antichità di Rimino: libri due”.
[41] PhotoScan-pro_1_0_0_en- User manual.
[42] G. Verhoeven, C. Sevara, W. Karel, C. Ressl, M. Doneus, & C. Briese; (2013), “Undistorting
the past: new techniques for orthorectification of archaeological aerial frame imagery”. Good
Practice in Archaeological Diagnostics (pp. 31-67): Springer.
[43] F. Voltolini, F. Remondino, M. Pontin, S. Girardi, A. Rizzi, & L. Gonzo; (2006), “Integrazione
di fotogrammetria e laser scanner per la documentazione di beni culturali”. Atti della 10°
conferenza Asita, Bolzano.
[44]UNIME, materiale didattico:“Fotogrammetria“,
http://webcache.googleusercontent.com/search?q=cache:O7mExOhuTAkJ:ww2.unime.it/ingegneria/
new/materiale/fotogrammetria.doc+&cd=1&hl=it&ct=clnk&gl=de
[45] Prof. Antonio Zanutta; materiale didattico : “Introduzione alla Fotogrammetria Digitale”.
[46] Maurizio Serpieri, “Analisi di pushover 3D per strutture in c.a.”, tesi di Laurea specialistica in
Ingegneria Civile, Università degli studi di Bologna, A.A. 2006/2007
http://amslaurea.unibo.it/111/
115
RINGRAZIAMENTI
Desidero ringraziare tutti coloro che hanno creduto in me ed incoraggiato.
Ringrazio innanzitutto il professor Antonio Zanutta, Relatore per i preziosi insegnamenti trattati nel
suo corso di laurea triennale di Fotogrammetria T e le numerose ore dedicate alla redazione dalla
mia tesi, ma soprattutto intendo ringraziarlo per la cortesia dimostratami ed i suoi ottimi consigli in
grado di diradare i miei dubbi durante la stesura di questo lavoro.
Un ringraziamento anche al Co-Relatore Ing. Maurizio Serpieri per i suoi utili suggerimenti e per
avermi fornito dati indispensabili per la realizzazione della tesi.
Vorrei esprimere la mia sincera gratitudine a tutti i miei colleghi di corso e le persone per me
importanti per aver condiviso insieme questa meravigliosa esperienza ricca di soddisfazioni e gioia,
dubbi e paure.
Infine desidero ringraziare i miei genitori per il sostegno economico e i miei fratelli per essermi stati
vicini in ogni momento.
***