FUSIÓN DE IMÁGENES DE PROFUNDIDAD OBTENIDAS CON SISTEMAS LIDAR Y DE ESTEREOVISIÓN POR MEDIO DE TÉCNICAS DE APRENDIZAJE PROFUNDO

dc.contributor.advisorRueda Chacón, Hoover Fabián
dc.contributor.authorMolina Garzón, Miguel Angel
dc.contributor.authorMantilla Claro, Henry Dario
dc.contributor.evaluatorBacca Quintero, Jorge Luis
dc.contributor.evaluatorRondon Villareal, Nydia Paola
dc.date.accessioned2025-05-26T20:08:02Z
dc.date.available2025-05-26T20:08:02Z
dc.date.created2025-05-26
dc.date.issued2025-05-26
dc.description.abstractLa fusión de imágenes de profundidad busca combinar imágenes de profundidad obtenidas mediante modalidades complementarias, como LiDAR y estereovisión, para generar imágenes de profundidad densas y confiables, compensando las limitaciones de los datos LiDAR escasos. Esta tarea resulta crucial en aplicaciones que requieren mediciones precisas de distancia, ya que sensores como los LiDAR, proporcionan mediciones exactas, pero con una cobertura espacial limitada. En contraste, la estereovisión ofrece imágenes de profundidad más densas, aunque con menor precisión en regiones de baja textura o a grandes distancias. En este trabajo, proponemos un método basado en aprendizaje profundo que fusiona la precisión de las mediciones LiDAR con la densidad de puntos que aporta la estereovisión. Para ello, se emplea un modelo preentrenado de correspondencia estéreo que genera imágenes de disparidad, las cuales son refinadas posteriormente mediante una arquitectura basada en Vision Transformers, complementada por una red de propagación espacial (SPN). Este enfoque fusiona la información de disparidad con mediciones escasas de profundidad LiDAR, corrigiendo y densificando la imagen de profudidad resultante. Evaluamos nuestro método en el conjunto de datos KITTI, utilizando las métricas RMSE, MAE, iRMSE e iMAE. Nuestro enfoque alcanzó un MAE de 180.88 mm, superando a los algoritmos del estado del arte tomados como referencia y obteniendo resultados competitivos en las demás métricas. Nuestro método evidencia la eficacia de utilizar algoritmos pre-entrenados en correspondencia estéreo para generar mapas de profundidad precisos y densos.
dc.description.abstractenglishDepth image fusion focuses on combining depth images obtained through complementary modalities, such as LiDAR and stereovision, to generate dense and reliable depth images, compensating for the limitations of sparse LiDAR data. This task is crucial in applications that require accurate distance measurements, since sensors like LiDAR provide precise measurements but have limited spatial coverage. In contrast, stereo vision offers denser maps, though with lower precision in low-texture regions or at long distances. In this work, we propose a deep learning-based method that fuses the precision of LiDAR measurements with the point density provided by stereo vision. To do this, we employ a pretrained stereo matching model that generates disparity maps, which are subsequently refined using a Vision Transformer-based architecture, complemented by a Spatial Propagation Network (SPN). This approach fuses disparity information with sparse LiDAR depth measurements, correcting and densifying the resulting map. We evaluate our method on the KITTI dataset using the RMSE,MAE,iRMSE,andiMAEmetrics. Our approach achieved a MAE of 180.88 mm, outperforming the reference state-of-the-art algorithms and yielding competitive results across the other metrics. Furthermore, our method demonstrates the effectiveness of using pre-trained stereo matching algorithms to produce precise and dense depth maps.
dc.description.degreelevelPregrado
dc.description.degreenameIngeniero de Sistemas
dc.format.mimetypeapplication/pdf
dc.identifier.instnameUniversidad Industrial de Santander
dc.identifier.reponameUniversidad Industrial de Santander
dc.identifier.repourlhttps://noesis.uis.edu.co
dc.identifier.urihttps://noesis.uis.edu.co/handle/20.500.14071/45670
dc.language.isospa
dc.publisherUniversidad Industrial de Santander
dc.publisher.facultyFacultad de Ingeníerias Fisicomecánicas
dc.publisher.programIngeniería de Sistemas
dc.publisher.schoolEscuela de Ingeniería de Sistemas e Informática
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.rights.coarhttp://purl.org/coar/access_right/c_abf2
dc.rights.creativecommonsAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
dc.rights.licenseAtribución-NoComercial-SinDerivadas 2.5 Colombia (CC BY-NC-ND 2.5 CO)
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subjectAlgoritmos de fusión
dc.subjectAprendizaje profundo
dc.subjectEstimación de la profundidad
dc.subjectLiDAR
dc.subjectEstereovisión
dc.subject.keywordFusion algorithms
dc.subject.keyworddeep learning
dc.subject.keyworddepth estimation
dc.subject.keywordLiDAR
dc.subject.keywordstereovision
dc.subject.keywordVision Transformers
dc.titleFUSIÓN DE IMÁGENES DE PROFUNDIDAD OBTENIDAS CON SISTEMAS LIDAR Y DE ESTEREOVISIÓN POR MEDIO DE TÉCNICAS DE APRENDIZAJE PROFUNDO
dc.title.englishDEEP LEARNING-BASED FUSION OF LIDAR AND STEREO VISION DEPTH IMAGES
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.type.hasversionhttp://purl.org/coar/version/c_b1a7d7d4d402bcce
dc.type.localTesis/Trabajo de grado - Monografía - Pregrado
Files
Original bundle
Now showing 1 - 3 of 3
No Thumbnail Available
Name:
Documento.pdf
Size:
15.23 MB
Format:
Adobe Portable Document Format
No Thumbnail Available
Name:
Nota de proyecto.pdf
Size:
221.3 KB
Format:
Adobe Portable Document Format
No Thumbnail Available
Name:
Carta de autorización.pdf
Size:
173.3 KB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
2.18 KB
Format:
Item-specific license agreed to upon submission
Description: