Utilizza questo identificativo per citare o creare un link a questo documento:
http://elea.unisa.it/xmlui/handle/10556/2570
Titolo: | About the development of visual search algorithms and their hardware implementations |
Autore: | Puglia, Luca De Sanctis, Alfredo Raiconi, Giancarlo Vigliar, Mario |
Parole chiave: | Visual search 3D |
Data: | 23-giu-2017 |
Editore: | Universita degli studi di Salerno |
Abstract: | The main goal of my work is to exploit the benefits of a hardware implementation
of a 3D visual search pipeline. The term visual search refers
to the task of searching objects in the environment starting from the real
world representation. Object recognition today is mainly based on scene
descriptors, an unique description for special spots in the data structure.
This task has been implemented traditionally for years using just plain
images: an image descriptor is a feature vector used to describe a position
in the images. Matching descriptors present in different viewing of the
same scene should allows the same spot to be found from different angles,
therefore a good descriptor should be robust with respect to changes in:
scene luminosity, camera affine transformations (rotation, scale and translation),
camera noise and object affine transformations. Clearly, by using
2D images it is not possible to be robust with respect to the change in the
projective space, e.g. if the object is rotated with respect to the up camera
axes its 2D projection will dramatically change. For this reason, alongside
2D descriptors, many techniques have been proposed to solve the projective
transformation problem using 3D descriptors that allow to map the shape of
the objects and consequently the surface real appearance. This category of
descriptors relies on 3D Point Cloud and Disparity Map to build a reliable
feature vector which is invariant to the projective transformation. More
sophisticated techniques are needed to obtain the 3D representation of the
scene and, if necessary, the texture of the 3D model and obviously these
techniques are also more computationally intensive than the simple image
capture. The field of 3D model acquisition is very broad, it is possible to
distinguish between two main categories: active and passive methods. In
the active methods category we can find special devices able to obtain 3D
information projecting special light and. Generally an infrared projector
is coupled with a camera: while the infrared light projects a well known
and fixed pattern, the camera will receive the information of the patterns
reflection on a certain surface and the distortion in the pattern will give
the precise depth of every point in the scene. These kind of sensors are of
i
i
“output” — 2017/6/22 — 18:23 — page 3 — #3
i
i
i
i
i
i
3
course expensive and not very efficient from the power consumption point of
view, since a lot of power is wasted projecting light and the use of lasers also
imposes eye safety rules on frame rate and transmissed power. Another way
to obtain 3D models is to use passive stereo vision techniques, where two
(or more) cameras are required which only acquire the scene appearance.
Using the two (or more) images as input for a stereo matching algorithm it
is possible to reconstruct the 3D world. Since more computational resources
will be needed for this task, hardware acceleration can give an impressive
performance boost over pure software approach.
In this work I will explore the principal steps of a visual search pipeline
composed by a 3D vision and a 3D description system. Both systems
will take advantage of a parallelized architecture prototyped in RTL and
implemented on an FPGA platform. This is a huge research field and in
this work I will try to explain the reason for all the choices I made for my
implementation, e.g. chosen algorithms, applied heuristics to accelerate
the performance and selected device. In the first chapter we explain the
Visual Search issues, showing the main components required by a Visual
Search pipeline. Then I show the implemented architecture for a stereo
vision system based on a Bio-informatics inspired approach, where the final
system can process up to 30fps at 1024 × 768 pixels. After that a clever
method for boosting the performance of 3D descriptor is presented and as
last chapter the final architecture for the SHOT descriptor on FPGA will
be presented. [edited by author] L’obiettivo principale di questo lavoro e’ quello di esplorare i benefici di una implementazione hardware per una pipeline di visual search 3D. Il termine visual search si riferisce al problema di ricerca di oggetti nell’ambiente. L’object recognition ai giorni nostri e’ principalmente basato sull’uso di descrittori della scena, una descrizione univoca per i punti salienti. Questo compito e’ stato implementato per anni utilizzando immagini: il descrittore di un punto dell’immagine e’ un semplice vettore di caratteristiche. Accoppiando i descrittori presenti in differenti viste della stessa scena permette di trovare punti nello spazio visibili da entrambe le viste. Chiaramente, utilizzando immagini 2D non e’ possibile avere descrittori che sono robusti a cambiamenti della prospettiva, per questo motivo, molte tecniche sono state proposte per risolvere questo problema utilizzando descrittori 3D. Questa categoria di descrittori si avvale di 3D point cloud e mappe di disparita’. Ovviamente tecniche piu’ sofisticate sono necessarie per ottenere la rappresentazione 3D della scena. Il campo dell’acquisizione 3D e’ molto vasto ed e’ possibile distinguere tra due categorie di sensori: sensori attivi e passivi. Tra i sensori attivi possiamo annoverare dispositivi in grado di proiettare un pattern di luce infrarossa sulla scena, questo pattern noto presenta delle variazioni dovute agli oggetti presenti nella scena. Una camera infrarossi riceve l’immagine distorta del pattern e deduce la geometria della scena. Questo tipo di dispositivi non sono molto efficienti dal punto di vista energetico dato che un sacco di corrente viene consumata per proiettare il pattern. Un altro modo per ottenere un modello 3D e’ quello di usare sensori passivi, una coppia di telecamere puo’ essere utilizzata per ottenere informazioni utilizzando metodi di triangolazione. Questi metodi pero’ richiedono un sacco di potenza computazionale nel caso di applicazioni real time, per questo motivo e’ necessario utilizzare dispositivi ad-hoc quali architetture hardware dedicate implementate mediante l’uso di FPGA e ASIC. In questo lavoro ho esplorato gli step principali di una pipeline per la visual search composta da un sistema di visione 3D e uno per la descrizione di punti. Entrambi i sistemi si avvalgono di achitetture hardware dedicate prototipate in RTL e implementate su FPGA. Questo e’ un grosso campo di lavoro e provo ad esplorare i benefici di una implementazione harwadere per l’accelerazione degli algoritmi stessi e il risparmi di energia elettrica. [a cura dell'autore] |
Descrizione: | 2015 - 2016 |
URI: | http://hdl.handle.net/10556/2570 http://dx.doi.org/10.14273/unisa-969 |
È visualizzato nelle collezioni: | Ingegneria dell'Informazione |
File in questo documento:
File | Descrizione | Dimensioni | Formato | |
---|---|---|---|---|
tesi L. Puglia.pdf | tesi di dottorato | 22,77 MB | Adobe PDF | Visualizza/apri |
abstract in italiano L. Puglia.pdf | abstract in italiano a cura dell'autore | 259,59 kB | Adobe PDF | Visualizza/apri |
abstract in inglese L. Puglia.pdf | abstract in inglese a cura dell’autore | 265,41 kB | Adobe PDF | Visualizza/apri |
tesi - copertina L. Puglia.pdf | tesi di dottorato - copertina | 8,62 MB | Adobe PDF | Visualizza/apri |
Tutti i documenti archiviati in DSpace sono protetti da copyright. Tutti i diritti riservati.