Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)Meneses Fonseca, Jaime EnriqueContreras Pico, Carlos RicardoVergel Becerra, Joseph Fabricio2024-03-0320162024-03-0320162016https://noesis.uis.edu.co/handle/20.500.14071/35364Las míltiples técnicas de reconstrucción tridimensional (3D) utilizadas actualmente generan una nube de puntos dispersos, los cuales poseen información metrológica que describe la topografía de los objetos reconstruidos. El procesamiento de estos puntos es crucial para obtener una digitalización 3D que modelice adecuadamente la superficie del objeto original. La técnica de proyección de franjas, implementa un proyector, una cámara digital y una unidad de control, es una de las más usadas para realizar reconstrucción 3D debido a su alta precisión y resolución, esta íltima por lo general puede alcanzar decenas de micrómetros. Sin embargo, por medio de la técnica de proyección de franjas se obtiene una gran cantidad de puntos, los cuales deben ser reducidos con el propósito de maximizar el espacio de almacenamiento y minimizar el tiempo de posprocesamiento y visualización, sin perder información en las regiones criticas, i.e., áreas con grandes curvaturas. Para tal propósito, en esta investigación se implementaron dos procedimiento interactuan con la superficie de tal manera que una reducen el mallado triangular correspondiente a la nube de puntos 3D y generan la triangulación de Delaunay adaptativa segín el criterio de curvatura, submuestreando las regiones con baja curvatura y mantienendo una densidad de puntos alta en regiones de alta curvatura. Finalmente se propone una estrategia de reconstrucción tridimensional unificada por proyección de franjas, que consolida las investigaciones realizadas por el GOTS en en el área de reconstrucción tridimensional en tres grandes fases; digitalización, transformación y caracterización, y por ultimo optimización. Esta metodología de reconstrucción 3D unificada por proyección de franjas se desarrollo con miras a que el GOTS ofrezca servicios de extensión al sector industrial y medico en materia de reconstrucción tridimensional.application/pdfspahttp://creativecommons.org/licenses/by/4.0/Reconstrucción 3DNube De PuntosAnálisis De CurvaturasMallado InteractivoMetrológia óptica.Mallado interactivo y análisis de curvaturas de una nube de puntos dispersos en el espacio tridimensional obtenida por la técnica de proyección de franjasUniversidad Industrial de SantanderTesis/Trabajo de grado - Monografía - PregradoUniversidad Industrial de Santanderhttps://noesis.uis.edu.coMultiple techniques of three-dimensional (3D) reconstruction that are currently used generate a cloud of scattered pointswhich have metrological information that describe the topography of the reconstructed objects. The processing of these points is crucial for obtain a 3D digitization that modelice properly the surface of the original object. The fringe projection techniquewhich implement a projectora digital camera and a control unitis one of the most used for 3D reconstruction due to its high accuracy and resolutionwhich usually can reach tens of microns. Howeverthrough the same technique a large number of points is obtainedwhich must be reduced in order to maximize storage space and minimize the post-processing timewithout losing information in the regions with large curvatures. For such purposein this paper is introduced a method that uses a series of algorithms such as nearest neighbor classificationthe estimation of normal vectors to a point cloud using Voronoid diagrams and the calculation of mean curvatures of local surfaces; information that is necessary to do a se- lective reduction of the point cloud and generate the Delaunay triangulation of the cloud. The efficiency and performance of the proposed method is illustrated through 3D reconstructions that preserve the geometric features of the objects of the study3D Reconstruction, Point Cloud, Curvature Analysis, Adaptive Remeshing, Optical Metrology.info:eu-repo/semantics/openAccessAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)