Obiettivi e contenuti del corso
Lo scopo della Computer Vision è l’estrazione di rappresentazioni geometriche di oggetti o scenari reali a partire da loro immagini bidimensionali acquisite con un dispositivo digitale, sfruttando il corrispettivo computerizzato della visione umana, composta dall’osservazione di una scena reale e dalla sua interpretazione. L’elemento caratterizzante della Computer Vision è la possibilità di automatizzare il processo di visione in modo da generare output, anche tridimensionali, attraverso calcoli su immagini bidimensionali. Il risultato dell'elaborazione è il riconoscimento di determinate caratteristiche spaziali per varie finalità di controllo, classificazione, guida robotica, orientamento nello spazio di mezzi autonomi e tracciamento della traiettoria di un osservatore.
Con Reverse Engineering di un oggetto fisico si intende invece l’acquisizione tridimensionale della sua forma e la successiva modellazione tridimensionale a partire dai dati 3D acquisiti. Le modalità di acquisizione della forma possono essere basate su tecnologie attive, quali scanner laser o sistemi a proiezione di pattern, o su tecnologie passive, come quelle proposte dalla Computer Vision.
Le tematiche della Computer Vision e del Reverse Engineering sono pertanto strettamente legate, e vengono proposte in questo corso come elementi complementari di un unico processo che prevede la raccolta di informazioni geometriche su una scena tridimensionale e la sintesi di tali informazioni in un modello digitale metricamente fedele all’originale fisico. Nelle attuali applicazioni industriali tale processo si ritrova declinato in vari modi, che vanno ad esempio dalle creazione di un modello digitale a partire da un oggetto di cui sia ignoto il modello originario, alle simulazioni di sistemi meccanici tramite tecniche “Finite Elements Analysis” (FEA), alla verifica dimensionale dei prodotti ottenuti da processi industriali, all’acquisizione di modifiche manuali effettuate su mock-up generati come stampa 3D di modelli CAD. Questa varietà di applicazioni rendono la Computer Vision e il Reverse Engineering strumenti trasversali irrinunciabili nel bagaglio culturale di un ingegnere meccanico.
Il corso si propone pertanto di fare una panoramica sui dispositivi di visione passivi e attivi e sulle modalità con cui tali sensori devono essere utilizzati per trasformare le superfici di un oggetto in un set di dati digitali manipolabili con strumenti informatici. Il corso passa poi all’analisi delle procedure per il post-processing dei dati grezzi prodotti da un sensore 3D passivo o attivo, che consentono di arrivare a un modello tridimensionale completo.
Per trasmettere queste conoscenze nella maniera più efficace il corso prevede una consistente attività esercitativa e di laboratorio nell’ambito della quale gli studenti sviluppano semplici processi di elaborazione digitale delle immagini per valutare vantaggi e potenziali criticità, fino a realizzare modelli 3D di oggetti reali a partire da set di immagini piane. Tali immagini vengono acquisite dagli studenti con le proprie fotocamere digitali opportunamente calibrate, o, in alternativa, con camere messe a disposizione dal laboratorio.
Analogamente viene illustrato il funzionamento di sistemi 3D a scansione laser e un analogo esercizio in laboratorio porta ogni studente a sperimentare le fasi di acquisizione, integrazione dei dati e modellazione poligonale di un oggetto di test. In questa fase vengono illustrati nel dettaglio alcuni pacchetti software di impiego comune nel contesto industriale.
Le tecnologie trattate nella parte teorica sono in tal modo messe in pratica su casi di studio reali, così che gli studenti possano interagire con tutta la procedura di Visione 3D passiva, Visione 3D attiva, elaborazione 3D, creazione del modello e presentazione.
Descrizione degli argomenti trattati
Introduzione teorica: Generalità sui metodi di rilievo 3D con e senza contatto. Interazione luce-materia. Tassonomia dei sistemi senza contatto basati su diverse forme di energia radiante. Tecniche di 3D sensing passive e attive. Sistemi di coordinate polare, cartesiano, sferico e cilindrico. Coordinate omogenee. Rappresentazione di entità 3D con vettori e matrici.
Sistemi 3D passivi: Pinhole Camera. Proiezione prospettica. Misura stereoscopica: caso normale. Generalizzazione del caso normale. Equazioni di collinearità. Geometria epipolare.. Fotocamere e videocamere: ottica e sistema di sensing. Modellazione matematica della camera e calibrazione. Radiometria. Illuminazione e ripresa della scena. Formati di immagine. Filtraggio. Estrazione di contorni. Segmentazione. Resezione: bundle-adjustment. Intersezione. Misura multi-stazione. Stereo-matching denso. Componenti principali. Algoritmo del quaternion.
Sistemi 3D attivi: Misura 3D con triangolazione. Scanner laser: misura puntuale (singolo spot); misura su sequenza di punti (lama di luce laser); misura su aree (lama di luce laser in movimento). Misura a campo intero; sistemi a triangolazione basati su proiezione di frange. Meccanismi di scansione e di proiezione nei sistemi a triangolazione. Sintesi comparativa delle caratteristiche dei diversi tipi di sensore a triangolazione. Misura 3D con valutazione della distanza; stima diretta (PW) e indiretta (CW e FM-CW) del tempo di volo. Meccanismi di scansione nei sistemi TOF
Integrazione dei metodi di rilievo: Sistema di riferimento nei sensori a triangolazione e a tempo di volo. Matrice di rototraslazione. Integrazione finalizzata a: verifica del modello; miglioramento dell’accuratezza; aumento delle informazioni. Sensori misti.
Elementi di metrologia 3D: Vocabolario Internazionale di Metrologia (VIM); definizioni di trueness, uncertainty e resolution. Distribuzioni uniforme e normale; istogramma di errore di un set di dati sperimentali. Standard di riferimento per il 3D imaging. Calibrazione di un sensore attivo. Caratterizzazione degli errori di un range device. Approccio analitico: legami tra parametri optogeometrici e deviazione standard d’errore. Approccio sperimentale: stima di trueness uncertainty e resolution a partire da acquisizione di target standard. Effetti d’ombra nei sistemi a triangolazione e a tempo di volo. Artefatti dovuti a transizioni cromatiche. Effetto ai bordi. Artefatti legati alla traslucidità del materiale.
Costruzione di modelli poligonali da dati acquisiti: Concetti topologici: mesh, faccia, vertice, normale alla faccia, normale al vertice. Meshing di nubi strutturate e non strutturate. Algoritmo di Delaunay. Procedura di creazione di un modello geometrico. Progetto di presa. Acquisizione. Meshing. Allineamento; caratteristiche algoritmo Iterative Closest Point (ICP). Merge. Mesh editing. Tecniche di editing: correzione topologica; smoothing; chiusura delle lacune; semplificazione; estrazione di profili; export. Esempi applicativi
Testi consigliati
Dana Ballard and Christopher Brown, Computer Vision, Prentice Hall, 1982.
Olivier Faugeras, Three-Dimensional Computer Vision, A Geometric Viewpoint. ISBN 0-262-06158-9. MIT Press, 1993.
Robert M. Haralik, Linda Shapiro, Computer and Robot Vision, Vol. 1 e 2, Addison-Wesley, 1991.
Gabriele Guidi, Michele Russo, Jean-Angelo Beraldin, Acquisizione 3D e modellazione poligonale, ISBN 9788838665318, McGraw-Hill, Milano, 2010.
I testi saranno integrati dalle slides del corso fornite dal docente.
|