La versione 8 di Colibrì ha introdotto nuove funzioni che, utilizzando le fotocamere, sono in grado di ricostruire le dimensioni di oggetti bidimensionali eliminando le distorsioni dovute al sistema di acquisizione, principalmente:

  • deformazioni dovuti alla ripresa  (errori prospettici)
  • non planarità del sensore
  • distorsione dovute all’obiettivo ( distorsione tangenziale e radiale)

Una ricostruzione spaziale dell’oggetto deve quindi correggere i frame acquisiti  tenendo conto di tutti i contributi che hanno prodotto la deformazione.

Come si può intuire, la ricostruzione basata sui parametri fisici del sistema di acquisizione prevede la conoscenza/calcolo dei loro valori.

Un esempio di distorsione ottica

L’immagine nella sua parte destra è trasformata con una distorsione radiale a barilotto

Il metodo usato in Colibrì..

Le funzioni di restituzione spaziale di Colibri non usano il calcolo dei parametri fisici. Utilizzano invece una classe di calcolo del software (Multivariate_interpolation) che ricostruisce le immagini mediante misura di un reticolo fissato sotto l’area di acquisizione.  Di fianco è riportato un filmato che mostra come utilizzare il software per calibrare una telecamera ed estrarre oggetti in scala 1:1

Questo articolo presenta preliminarmente un metodo che utilizza le funzioni della libreria di Colibri per restituire un’immagine composta di frame acquisiti da più telecamere. Il risultato del processo sarà un’immagine restituita alle dimensioni corrette dell’area somma.

Il sistema di acquisizione consiste in tre telecamere poste a copertura di un’area piana.

Definiremo Tsx Tdx e Tcx le tre telecamere dove i suffissi sx,dx,cx definiscono la posizione delle stesse (sinistra,destra, centro). Le tre telecamere hanno uguale risoluzione (4096 x 2160 pixel); quella centrale (Tcx)  misura un’area in sovrapposizione  con quella acquisita dalle altre due.

Definiamo Im_dx, Im_dy, Im_cx  i tre frame acquisiti dalle tre telecamere (il suffisso è lo stesso delle telecamere)

L’esperimento è fatto acquisendo 3 immagini che sono parzialmente sovrapposte. L’immagine unione potrà essere costruita definendo punti comuni alle zone di sovrapposizione.

Di seguito sono riportati i tre frame utilizzati.

Il risultato finale dell’operazione è la produzione di un file immagine che compone i tre frame, relativamente alle tre zone  sovrapposte che sono estraibili.

Di fianco è riportato il risultato ottenuto. 

Il processo necessario  per ottenere  questo risultato è descritto nel video a lato.

 

Questo è un articolo preliminare all”argomento trattato;

nei prossimi giorni presenterò con maggiore dettaglio la metodologia utilizzata, in particolare, per chi fosse interessato al codice di programmazione  sottostante, sarà descritta la classe Img_calibrator che esegue tutti i calcoli richiesti dal processo

%d bloggers like this:
Skip to toolbar