Diseño y modelado matemático de un sistema optoelectrónico multisensor para adquisición de información espectral y de profundidad

Abstract
Una imagen es la representación visual de una escena, que tradicionalmente es adquirida por uno o varios instrumentos optoelectrónicos que capturan información de las distintas dimensiones que la conforman. Por ello actualmente diversas plataformas han propuesto arquitecturas que permiten capturar información de distintas dimensiones, las cuales están compuestas por cámaras, RGB, de infrarrojo y múltiples sensores como LiDAR, que permiten desarrollar aplicaciones diversas, entre las que se encuentra la conducción autónoma, la realidad virtual y la reconstrucción de escenas en tres dimensiones (3D). Específicamente en este trabajo se propone una arquitectura de adquisición de información de espacio, profundidad y color que está compuesta por dos cámaras RGB, y una cámara de infrarrojo cercano. Además se desarrolló una red de inteligencia artificial, red DNet, que permitió la reconstrucción de mapas de profundidad, y la estimación de la mejor distancia entre cámaras RGB para imágenes sintéticas e imágenes de implementación. Específicamente, para la evaluación de la red empleando imágenes sintéticas de entrenamiento, se obtuvo que siguiendo las métricas de PSNR y SSIM la mejor configuración para estimar un mapa de profundidad es de un metro de distancia entre cámaras y un nivel de profundidad de 1 metro. Por otra parte, en validación se encontró que se tienen buenas reconstrucciones para distintos de niveles de profundidad, si se conserva en cada caso una distancia entre cámaras de 1 metro. Finalmente, se encuentra que la red tiene un rendimiento aceptable para imágenes capturadas en entorno real no controlado con el sistema implementado.
Description
Keywords
Estéreo visión, LiDAR, Profundidad, Desenfoque, Fusión, Aprendizaje Profundo
Citation