Maestría en Ingeniería de Sistemas e Informática
Permanent URI for this collection
Browse
Recent Submissions
Item Adquisición adaptativa de imágenes espectrales comprimidas en el infrarrojo cercano basada en el sistema de captura de único píxel mediante aprendizaje profundo(Universidad Industrial de Santander, 2024-11-12) Monroy Chaparro, Brayan Esneider; Bacca Quintero, Jorge Luis; Argüello Fuentes, Henry; Díaz Díaz, Nelson Eduardo; Giraldo, Jhony H.La adquisición de imagenes espectrales comprimidas (CSI, por sus siglas en inglés) son una tecnología eficiente utilizada para obtener información espacial y espectral. A diferencia de las técnicas convencionales de escaneo espectral, CSI captura solo unas pocas imágenes instantáneas, evitando largos tiempos de adquisición y sensores especializados costosos. Este enfoque tiene aplicaciones en la agricultura de precisión y en la teledetección. En el rango del infrarrojo cercano (NIR), más allá del espectro visible, CSI es particularmente valiosa ya que no se dispone de sensores con alta resolución espacial y espectral. Específicamente, la técnica de imagen de un solo píxel basada en Hadamard (HSPI) presenta sistemas de adquisición rentables para capturar imágenes NIR de alta calidad. Sin embargo, la captura de imágenes comprimidas conlleva una pérdida de información, lo que requiere algoritmos de restauración de imágenes para la reconstrucción espectral. En HSPI, la pérdida de información ocurre al utilizar solo un subconjunto de capturas en lugar de todo el conjunto de la matriz Hadamard, lo que afecta directamente la calidad de las imágenes espectrales adquiridas. Por lo tanto, es crucial desarrollar un sistema de adquisición que optimice la extracción de información y minimice el número de capturas necesarias. Mientras que la literatura existente se centra en algoritmos computacionales y modelos de aprendizaje profundo para un sistema de captura fijo, el desafío radica en diseñar un sistema que aborde eficazmente las características únicas de cada imagen espectral para extraer la información más relevante. En consecuencia, este trabajo presenta dos modelos adaptativos de aprendizaje profundo para la selección de patrones de modulación adaptativa en el sistema de imágenes de un solo píxel basado en Hadamard para imágenes espectrales en el infrarrojo cercano. En concreto, los modelos propuestos realizan la selección adaptativa de patrones de modulación en dos modalidades. En los casos en los que se dispone de información previa, se propone la estimación de superpíxeles de imagen para mejorar la información espacial-estructural de las imágenes. Para escenarios sin información previa, se propone una estrategia de ordenación adaptativa, donde se adquiere un subconjunto fijo inicial, y un modelo de aprendizaje profundo guía la estimación del subconjunto subsiguiente. Este enfoque incluye el modelado del proceso de propagación del sistema de detección, el diseño de una arquitectura de aprendizaje profundo adaptativo, definir una función de costes y una estrategia de entrenamiento adecuadas para optimizar conjuntamente los parámetros de la red y el sistema de adquisición de imágenes, y la validación del rendimiento del modelo mediante métricas de calidad espacial y espectral en imágenes espectrales NIR. El conjunto de datos EuroSAT de la misión Sentinel-2 se emplea para la validación. El rendimiento del modelo adaptativo se analizo a partir adquisiciones realizadas en el Laboratorio Óptico HDSP. El resultado de esta investigación es un modelo de aprendizaje profundo capaz de adquirir imágenes espectrales de forma adaptativa y mejorar su calidad espacial y espectral a través de la extracción de información relevante.Item Detección de glaucoma utilizando imágenes del fondo del ojo mediante el uso de redes neuronales convolucionales(Universidad Industrial de Santander, 2024-04-23) Carrillo Rodríguez, Juan Sebastián; Bautista Rozo, Lola Xiomara; Villamizar Morales, Jorge; Fajardo Ariza, Carlos Augusto; Pertuz Arroyo, Said DavidLas deficiencias en el cuidado de la visión pueden tener consecuencias lamentables e irreversibles en la vida de las personas, ya que algunas enfermedades oculares, como el Glaucoma abordado en este proyecto, son afecciones sigilosas que afectan los ojos de manera asintomática. El Glaucoma se destaca como una de las principales causas de ceguera a nivel mundial, atribuido a la falta de síntomas claros que adviertan a quienes lo padecen y a la escasez de oftalmólogos especializados para diagnosticar y dar seguimiento adecuado a los casos identificados. En la práctica, la detección de la enfermedad comienza con un análisis visual de imágenes del fondo del ojo para identificar la presencia de Glaucoma. Estas imágenes se adquieren de manera relativamente sencilla, sin requerir procedimientos invasivos ni dispositivos costosos, y las cámaras para su obtención pueden ser manejadas por personal con entrenamiento básico. Además, proporcionan información suficiente para el diagnóstico de la enfermedad. En este proyecto, se aborda esta problemática de manera computarizada mediante la detección automatizada de Glaucoma. Se emplea una estrategia que combina redes de aprendizaje profundo yla transformada wavelet. Primero, las imágenes se procesan mediante el algoritmo de transformada wavelet para extraer características, y luego estas características se utilizan en el algoritmo de aprendizaje profundo para detectar la presencia de Glaucoma, respaldando así el diagnóstico oftalmológico. Esta estrategia ha demostrado una sensibilidad de hasta 96.72 % y una mejora en la convergencia de la red neuronal convolucional.Item Propuesta de modelo de simulación dinámico sistémico difuso para la gestión del ciclo productivo de plantaciones agrícolas, aplicado al ciclo fenológico de cítricos(Universidad Industrial de Santander, 2021) Mojica Estrada, José Luis; Andrade Sosa, Hugo HernandoLa gestión productiva agrícola es ineficiente en muchos casos, especialmente en aquellos en los que no hay un control productivo o un mal cálculo de la lámina de riego. Una mala gestión agrícola afecta negativamente el uso de los recursos hídricos. Así como impacta la seguridad alimentaria de una nación, debido que las plantaciones poseen un umbral productivo, el cual puede desaprovecharse en los casos que los cultivos tengan una producción no regulada. Como propuesta de mejora de la gestión productiva, se plantea un modelo Dinamico-Sistemico de simulación de la gestión agrícola, aplicado a cultivos de cítricos que integra los ciclos de realimentación del fenómeno, construido y evaluado con la literatura agroindustrial publicada. El modelo de simulación se construye en base al paradigma Dinamico-Sistemico integrado con lógica difusa, con el objetivo de lograr una sinergia entre los conocimientos del experto en el área agrícola y el modelo planteado, al aprovechar las características lingüísticas y complejidad no lineal de la metodología difusa. El modelo de Dinámica de Sistemas Difuso representa el fenómeno de dinámica hídrica (Variable según las condiciones del suelo) y su causalidad en el índice de estrés hídrico y la producción de cítricos, así como su relación no lineal con algunos elementos mayores y su consumo. Las aplicaciones del modelo de simulación se plantean desde el cálculo de la lámina de riego, riego automático y gestión productiva de cultivos deItem Structured and continuous video sign language recognition(Universidad Industrial de Santander, 2021) Rodríguez Chivatá, Jefferson David; Martínez Carrillo, FabioLas lenguas de señas son el principal mecanismo de comunicación en la comunidad sorda. Estas lenguas son muy variables en la comunicación, con divergencias entre la representación de los gestos, la configuración de los signos y múltiples variantes debido a aspectos culturales. Los métodos actuales para la traducción automática y continua de signos incluyen modelos de aprendizaje profundo que codifican la representación visual de los signos. A pesar de los importantes avances, la convergencia de estos modelos requiere enormes cantidades de datos para explotar la representación de las señas, lo que da lugar a modelos muy complejos. Este hecho se asocia a la mayor variabilidad, pero también a la escasa exploración de muchos componentes del lenguaje que sustentan la comunicación. Por ejemplo, el movimiento gestual y la estructura gramatical son componentes fundamentales en la comunicación, que pueden hacer frente a interpretaciones erróneas de los signos visuales y geométricos durante el análisis del vídeo. Este trabajo introduce una arquitectura compacta para la traducción de señas a texto que explora el movimiento como alternativa para apoyar la traducción de signos. Dicha caracterización resulta robusta a la varianza de la apariencia con apoyo a las variaciones geométricas. Además, este trabajo propone dos módulos que aportan robustez al componente estructural reflejado directamente en la traducción. La arquitectura propuesta se evaluó en un conjunto de datos propio de lengua de señas colombiana construido específicamente para esta tarea (CoL-SLTD) dedicado al estudio del movimiento y de la estructura de las oraciones, también en un conjunto de datos del estado del arte llamado RWTH-Phoenixweather. Del conjunto de datos CoL-SLTD, la mejor configuración reporta una puntuación BLEU-4 de 35.81 en el conjunto de pruebas. En cuanto al RWTH-Phoenix-weather, la estrategia propuesta alcanzó una puntuación BLEU-4 en prueba de 4.65 mejorando los resultados en condiciones reducidas similares.Item Amplificación visual de signos óculo-motores para el reconocimiento de patrones parkinsonianos(Universidad Industrial de Santander, 2020) Salazar Acosta, Isail; Martínez Carrillo, Fabio; Pertuz Arroyo, Said DavidLas alteraciones óculo-motoras constituyen un biomarcador prometedor para detectar y caracterizar la enfermedad de Parkinson (EP), inclusive en etapas pródromas. En la actualidad, sin embargo, solo se cuenta con el uso de dispositivos de seguimiento visual que entregan trayectorias globales y simplificadas para aproximar la compleja cinemática de la función óculo-motora. La adquisición de estas señales además suele requerir de protocolos intrusivos y sofisticados pasos de calibración. Este trabajo presenta un novedoso biomarcador de imagen para evaluar la EP mediante el modelamiento de los movimientos de fijación ocular, registrados con cámaras convencionales. En primer lugar, se realiza un proceso de magnificación de video basado en aceleración, cuyo fin es mejorar visualmente pequeños patrones relevantes de fijación en los videos capturados. Seguidamente se procede a extraer un conjunto de cortes espacio-temporales por video, los cuales son representados como mapas de características desde las primeras capas pre-entrenadas de redes neuronales convolucionales. A continuación, estos mapas se codifican eficientemente mediante matrices de covarianza para el entrenamiento de una máquina de soporte vectorial que lleva a cabo la clasificación de la enfermedad. Utilizando un conjunto de 130 videos en un estudio con 13 pacientes PD y 13 control, el enfoque propuesto alcanzó una precisión media de 95.4% y un área bajo la curva ROC de 0.984, siguiendo un esquema de validación cruzada por paciente excluido. El descriptor introducido captura adecuadamente en los ojos patrones de temblor conocidos en PD mostrando un desempeño sobresaliente.Item Análisis de sistemas embebidos hpc usando manejadores de paquetes(Universidad Industrial de Santander, 2020) Gómez Hernández, Carlos Eduardo; Barrios Hernandez, Carlos Jaime; Richard, OlivierEl proyecto consiste en analizar las capacidades computaciones y energéticas para computación de alto rendimiento (HPC por sus siglas en inglés) de ciertos sistemas embebidos usando una herramienta de gestión de aplicaciones de tipo manejadores de paquetes. Para lograr este objetivo, se escogió un tipo de sistemas embebidos y una clase de Manejador de Paquetes. Usando una serie de algoritmos denominados benchmarks, se logra obtener resultados de rendimiento computacional del sistema. Finalmente, una vez obtenidos estos resultados se usan estos valores para obtener el consumo energético de la infraestructura. Principalmente este proyecto se divide en dos partes: uso de software (por los manejadores de paquetes) y uso de hardware (por los sistemas embebidos). Por esta razón, se exploran por separado ambas partes, estudiando sus componentes y algunos elementos pertenecientes a esa parte y además se mencionan algunos proyectos con una configuración similar para mostrar un precedente de lo que puede hacer este tipo de infraestructura. En la etapa final, se crea un modelo de una infraestructura, se implementa, se agregan las herramientas necesarias y con el uso de un sistema de algoritmos de prueba computacional denominados benchmark, se observa su rendimiento computacional. Sin embargo, las pruebas deben también indicar consumo energético, por lo que basados en un estudio previo, se usan esos resultados adaptados al proyecto para aproximar el valor del consumo energético en nuestro sistema. Todo lo anterior se gráfica y se analiza el rendimiento e impacto de los manejadores de paquetes dentro de los sistemas embebidos. 1Item Classification of hyperspectral images based on convolutional neural networks and spectral unmixing(Universidad Industrial de Santander, 2020) Pinto Barrera, Jhon Edward; Arguello Fuentes, Henry; Ramírez Rondon, Juan MarcosLas imágenes hiperespectrales (HSIs) corresponden a cubos de datos que contienen información espacial de una escena a lo largo del espectro electromagnético. En general, estas imágenes se han usado para identificar diferentes características de las escenas gracias a su alto contenido espectral, estas han favorecido el desarrollo de aplicaciones como, la detección de enfermedades en cultivos y la discriminación de materiales presentes en una escena. En particular, el análisis de las firmas espectrales de diversos tipos de vegetación ha permitido obtener información sobre el estado y el crecimiento de los cultivos agrícolas. En este sentido, la clasificación de HSIs es una tarea desafian te, debido a que, las firmas adquiridas son afectadas por diversos factores, tales como, los cambios en los niveles de iluminación e incertidumbres de los equipos de medición. Además, la mayoría de los métodos de clasificación no consideran la mezcla del contenido espectral de múltiples materiales en un único píxel. Para superar esta limitación, las técnicas de desmezclado espectral han emergido para estimar la contribución de los diferentes materiales en un único píxel. Por otro lado, las redes neuronales convolucionales (CNN) son estructuras de aprendizaje profundo que han demostrado un notable rendimiento en tareas de clasificación de información visual. Estas arquitecturas típicamente están conformadas por capas convolucionales, capa de funciones de activación no lineal, capa de agrupamiento y una capa completamente conectada, que ejecuta la tarea de clasificación multiclase. En este trabajo, se propone un enfoque de clasificación de HSIs mediante el uso de un método de desmezclado espectral y CNN. Específicamente, el método propuesto utiliza los mapas de abundancia extraídos de una HSI como entrada a una CNN. El propósito de este trabajo es aprovechar las ventajas del desmezclado espectral, incluyendo la descomposición a nivel de sub-píxeles, la reduc ción de la dimensionalidad y el rendimiento notable de las CNN. El método propuesto se verificó a través de cuatro conjuntos de datos de HSIs tradicionales, como Pavia University, Salinas Valley, Indian y la Oil Palm. Asimismo, el método de clasificación propuesto presenta un mejor rendimiento de clasificación en términos de precisión general comparado con diferentes métodos de clasificación de la literatura, tales como, máquina de soporte vectorial (SVM, del inglés Support Vector Machine), máquina de soporte vectorial con función de base radial (SVM-RBF, del inglés Support Vector Ma chine - Radial Basis Function) y por último el método de vecinos más cercanos (K-NN, del inglés k-nearest neighbors algorithm).Item Reconstrucción tridimensional digital de cráneos humanos para aplicaciones en ciencias forenses(Universidad Industrial de Santander, 2020) González Gómez, Andrés Leonardo; Meneses Fonseca, Jaime Enrique; Arguello Fuentes, HenryEn este trabajo de investigación se presenta una estrategia metodológica de reconstrucción tridimensional especializada en el cráneo humano. La configuración experimental consta de una cámara CCD y un vídeo proyector comercial. La metodología se basa en una técnica de luz estructurada conocida como proyección de franjas, a la cual se le atribuyen importantes ventajas sobre otras técnicas de reconstrucción tridimensional de no contacto como son: gran versatilidad, mayor flexibilidad, relativo bajo costo, y alta precisión métrica. La investigación parte del estudio de la fundamentación teórica del análisis de franjas, desde la generación matemática del patrón de franjas para proyectar y los algoritmos básicos para recuperar la fase, hasta el análisis teórico y experimental del efecto gamma y la no linealidad de los dispositivos, junto con los métodos pasivos, activos y combinados más relevantes que se han desarrollado y publicado en los últimos años con el objetivo de reducir el error en la fase debido a armónicos residuales. El desenvolvimiento de la fase discontinua es otro de los retos científicos a los que se hace un aporte importante. Para esta necesidad particular, que deriva de la compleja topografía superficial del cráneo humano, se propone una novedosa estrategia a partir del algoritmo básico de desenvolvimiento de fase temporal pero utilizando únicamente dos frecuencias de proyección, y de este modo se logra reducir de cientos a dieciocho el número de imágenes que se deben adquirir y procesar para obtener la fase continua absoluta. Este logro se consigue aprovechando las restricciones geométricas del montaje experimental, sumado a la información de fase continua absoluta y coordenadas espaciales que son adquiridas con el ajuste polinomial propio del procedimiento de calibración. Finalmente, después de obtener nueve nubes de puntos tridimensionales de diferentes vistas del cráneo humano, que garantizan una exploración a 360 , se unifican en una única nube de puntos utilizando el algoritmo de registro ICP. La unificada nube de puntos tridimensional del cráneo humano a 360 , se dota de noción de superficie mediante un remallado isotrópico generado a partir de un mallado de base construido con el concepto de triangulación de Delaunay.Item Planificación de posicionamiento satelital multiconstelación en entornos urbanos(Universidad Industrial de Santander, 2018) Puentes Palacio, Michael Sneider; Ramos Pollan, Raul; Jaime Barrios, CarlosUn posicionamiento mediante un servicio GNSS (Sistema global de navegación por satélite) como la constelación de satélites GPS de EE. UU. o la constelación GLONASS de Rusia, solo es posible con la recepción simultánea de la señal de al menos cuatro satélites. La probabilidad de pérdida de visibilidad de los satélites GNSS en entornos urbanos es especialmente crítica por los elementos arquitecturales propios de una ciudad, pudiendo degradar o hasta imposibilitar la localización de un receptor. Dado que los satélites GNSS no son geoestacionarios y su posición respecto a un observador evoluciona con el tiempo, su visibilidad depende del momento del día y la localización geográfica. Si además se incluye un observador móvil en un entorno urbano, la calidad y disponibilidad de un servicio GNSS adquiere una dinámica especialmente compleja. Esto será crucial para ciertas aplicaciones, por ejemplo, un vehículo transportador de valores requiere un monitoreo continuo de su posición. Conociendo de antemano la ubicación de los satélites a través de sus posiciones en sus respectivas órbitas y las obstrucciones que tendrá un recorrido planificado en un entorno urbano, se puede establecer la relación de visibilidad entre un observador y los satélites de un servicio GNSS y, por tanto, ajustar el recorrido planificado garantiza la continuidad del servicio de posicionamiento durante el mismo. Este trabajo describe un método para calcular la disponibilidad de satélites en un tiempo programado a través de un camino establecido en un entorno urbano denso, integrando el cálculo de la posición de los satélites a través de la mecánica orbital, con imágenes de Google Street View y segmentación semántica con técnicas de Deep Learning. De esta manera, predecir la relación de visibilidad entre un observador y los satélites de un servicio GNSS en un entorno urbano.Item Simulación de modelos de predicción de la degradación del concreto reforzado expuesto a un medio marino simulado en arquitecturas computacionales basados en múltiples GPU(Universidad Industrial de Santander, 2018) Mejia Cajica, Felix Armando; Peña Ballesteros, Darío Yesid; Barrios Hernandez, Carlos JaimeLa simulación del proceso de la difusión de cloruros en el concreto reforzado expuesto a medios marinos, permite conocer la concentración del ion cloruro en una estructura de concreto en un tiempo determinado, por lo tanto, es posible estimar el tiempo necesario para que la estructura alcance la concentración umbral y así iniciar la despasivación del acero de refuerzo. El concreto reforzado es uno de los materiales más utilizados en la construcción, debido a sus propiedades estructurales, bajo costo y gran durabilidad. El carácter alcalino presente en los poros del concreto, permite que el acero de refuerzo en un inicio se encuentre en estado pasivo en cuanto a la corrosión, siendo su velocidad casi nula, sin embargo, esta velocidad comienza a incrementarse debido al ingreso de agentes agresivos los cuales se encuentran presentes en el medio ambiente como son los iones de cloruro y el dióxido de carbono, los cuales llevan al inicio de la corrosión de las estructuras de acero que refuerzan el concreto. En este trabajo se simula un modelo de difusión teniendo en cuenta los diferentes factores que afectan o inciden en la velocidad de inicio de la corrosión de la estructura de refuerzo, como son la relación agua-cemento, temperatura, densidad y capacidad de fijación del cloruro del concreto, dado que se manejan todas estas variables y una gran cantidad de información se hace necesario utilizar arquitecturas computacionales basadas en múltiples GPU con el fin de lograr la obtención de mejores resultados en tiempos más cortos y así poder minimizar este fenómeno cambiando ciertos parámetros de diseño y fabricación.Item Modelo de gestión de dispositivos en ambientes domiciliarios aplicado a la prestación de servicios médicos de monitoreo a pacientes(Universidad Industrial de Santander, 2018) Villamizar Codina, Manuel Antonio; Pedraza Ferreira, Gabriel RodrigoEl envejecimiento de la población del mundo, según cifras de la Organización Mundial de la Salud-OMS proyecta que para el año 2050, la proporción de adultos mayores pasaría de un 12% a un 22%; en cifras el número de personas de este grupo pasará de 605 millones a 2000 millones [1], estas proyecciones repercuten directamente en la sostenibilidad del sector salud de cada país; por lo que la búsqueda de estrategias que ayuden a afrontar esta temática son relevantes. IoT y estudios enfocados en envejecimiento en el lugar Aging in Place [2], que permitan a los adultos mayores envejecer en su domicilio, y prevenir o detectar en etapas tempranas complicaciones que son comunes en este segmento de la población [3]. El desarrollo de este proyecto se centró en la definición de un modelo de gestión de dispositivos, que aborda las preocupaciones asociadas a la interacción entre los dispositivos y las aplicaciones, que se despliegan dentro del domicilio de los adultos mayores que viven solos, con el fin de formular una infraestructura abierta que permita la obtención de datos asociados a las actividades de los adultos mayores de una forma desacoplada, dinámica y distribuida; la incorporación de dispositivos con capacidad de sensoramiento en esta infraestructura, está enfocada en la obtención de los datos necesarios para realizar estudios posteriores por parte de especialistas en la salud, que permitan identificar el grado de autonomía que tienen estos al momento de realizar sus actividades cotidianas.Item Diseño de un sistema basado en la teoría de muestreo compresivo, para la adquisición de la estructura tridimensional y respuesta espectral de la superficie de un objeto usando luz estructurada(Universidad Industrial de Santander, 2018) Diaz Plata, Elkin David; Arguello Fuentes, Henry; Meneses Fonseca, Jaime EnriqueEn los últimos años se ha buscado incrementar la cantidad de datos que una cámara es capaz de capturar sobre una escena tales como la información espectral, temporal y tridimensional. La información espectral es obtenida a través de sensores especializados que permiten adquirir la respuesta espectral de un objeto en cada posición espacial. Esta información es ampliamente usada en campos como la agricultura y la inspección en la calidad de alimentos. Generalmente, estos cubos contienen una gran cantidad de datos compresibles. Por esto, técnicas como el muestreo compresivo pueden ser utilizadas para obtener imágenes espectrales con una alta probabilidad usando menos muestras comparadas con las requeridas por el criterio de muestreo de Nyquist. Los datos espectrales asociados con la información espacial bidimensional (2D) proporcionan un medio útil para la identificación y caracterización de objetos. Sin embargo, en aplicaciones industriales (metrología, automóvil), actividades como la arqueología, arquitectura, ingeniería, y entretenimiento (en la producción de películas y videojuegos) es necesaria una estructura tridimensional para realizar una caracterización e identificación completa del objeto. La luz estructurada es un método que a través de la proyección, deformación y captura de patrones de luz de un objeto permite reconstruir una estructura tridimensional. Teniendo en cuenta las ventajas de la técnica de muestreo compresivo en la reducción de la cantidad de datos a capturar en un modelo tridimensional espectral 4D, la presente tesis de investigación introduce el diseño y simulación de un sistema basado en la teoría de muestreo compresivo para la adquisición simultánea de la estructura 3D y respuesta espectral de la superficie de un objeto usando luz estructurada.Item Diseño de matrices de sensado en compresión de imágenes espectrales usando análisis de componentes principales(Universidad Industrial de Santander, 2018) Monsalve Salazar, Jonathan Arley; Arguello Fuentes, HenryLa tecnica de adquisición compresiva de imágenes espectrales (CSI, compressive spectral imaging) aprovecha los principios de la teoría de muestreo compresivo (CS,Compressive sensing) en la adquisicion de imágenes espectrales tal que permite reconstruir una señal usando una cantidad reducida de medidas en comparación con técnicas tradicionales. Una caracter´ıstica importante en CSI es el protocolo de muestreo, por esta razon, ´ su diseno es abordado en este trabajo. La coherencia y la propiedad de isometr ˜ ´ıa restrictiva han sido estudiadas con el fin de producir matrices de muestreo universales, esto quiere decir, sin tener en cuenta los datos adquiridos para guiar el proceso. Por otro lado, el uso de mediciones adaptativas puede mejorar los resultados de reconstruccion, dado que estos toman ventaja de la información en la escena para guiar el ´ proceso de adquisicion. Por otra parte, el análisis de componentes principales (PCA, ´ Principal Component analisys) se ha usado satisfactoriamente en problemas de reduccion dimensional, por lo tanto, se puede usar esta técnica para dise ´ nar las medidas ˜ adaptativas dado que CSI incluye un proceso de reduccion dimensional. Por esto, se ´ propone un algoritmo para disenar las matrices de muestreo de algunos sistemas CSI ˜ usando PCA, con el objetivo de reducir el error cuadratico medio entre las medidas y ´ las datos reales. Para realizar el diseno adaptativo de las matrices, los vectores propios ˜ son estimados directamente de las medidas comprimidas. Simulaciones computacionales muestran una mejora de hasta 4 dB en PSNR (peak signal to noise ratio) comparado con reconstrucciones obtenidas a partir de medidas aleatorias.Item Metodología para la detección y seguimiento de nadadores en ambientes hidrodinámicos mediante absorbancia de luz usando el modelo de color hsv y la descomposición de matrices de bajo rango(Universidad Industrial de Santander, 2018) Reyes Sierra, Carlos Eduardo; Arguello Fuentes, HenryLa biomecánica es la ciencia que estudia la relación entre las fuerzas y los movimientos del cuerpo humano con el objetivo de realizar análisis cinemáticos. En el estudio cinem´atico enfocado al deporte, los entrenadores se apoyan en el análisis de video para estudiar el movimiento y mejorar el rendimiento, gesto deportivo y desempeño de los atletas. Particularmente, en natación, a partir del análisis y estudio del movimiento, se busca reducir la fricción con el medio, prevenir lesiones y mejorar registros. Actualmente, estos estudios se realizan mediante an´alisis de video combinados con datos de goniómetros, giroscopios y acelerómetros; sin embargo, estos métodos presentan limitaciones asociadas con portabilidad, fabricación de equipos altamente especializados, costos elevados y técnicas invasivas. Además la literatura muestra que los sistemas para realizar captación de video y los algoritmos empleados para analizar el movimiento de deportistas a través de secuencias de video están enfocados al estudio de los nadadores fuera del agua debido a que la predominancia de las tonalidades de azul y verde, además de la difracción, refracción, el ruido producido por las olas, turbulencia y oclusión por el movimiento del agua, son retos que aún no han sido resueltos por los algoritmos tradicionales. Este trabajo presenta una metodología para la detección y seguimiento de nadadores en ambientes hidrodinámicos mediante absorbancia de luz usando el modelo de color HSV y la descomposición de matrices de bajo rango, compuesta por un sistema de adquisición de video bajo el agua y un algoritmo que modela la absorción de luz en la etapa de preprocesamiento para la entrada de un modelo que combina las técnicas de descomposición de matrices de bajo rango para realizar segmentación, difusión que realiza clasificación y seguimiento del nadador mediante el filtro kalman. El algoritmo fue probado en 48 secuencias de video captadas con el sistema propuesto, y los resultados muestran que se detecta y hace seguimiento al nadador con una precisión del 94 % en ambientes hidrodinámicos.Item Coded aperture design for compressive spectral imaging subspace clustering(Universidad Industrial de Santander, 2018) Hinojosa Montero, Carlos Alberto; Arguello Fuentes, HenryLos sistemas de adquisicion de imágenes espectrales basados en la técnica de muestreo compresivo (CSI por su sigla en ingles), obtienen proyecciones codificadas de las firmas espectrales aplicando diferentes patrones de codificacion. Una vez acquiridas las medidas comprimidas, el paso a seguir conmunmente consiste reconstruir la imagen espectral original. En la literatura de CSI, distintos trabajos se han centrado en mejorar la calidad de la reconstruccion mediante el diseño adecuado de los patrones de codificacion. Sin embargo, la reconstrucción de la escena subyacente no es estrictamente necesaria para realizar distintas tareas de procesamiento. Por ejemplo, suponiendo que los p´ıxeles espectrales asociados a clases diferentes conservan su desemejanza despues de ser comprimidos, los metodos ´ de clasificacion no supervisada ( ´ clustering) pueden aplicarse directamente con el objetivo de separar dichos p´ıxeles en grupos diferentes o clusters, sin la necesidad de reconstuir la imagen espectral. En este trabajo, se propone un metodo para realizar clustering con medidas comprimidas obtenidas mediante CSI. En particular, se propone el diseno de un conjunto optimo de patrones de codificación de manera que la desemejanza entre píxeles de diferentes clases se preserve despues de la proyeccion de la escena. Luego, para realizar la clasificación de los datos comprimidos se propone un algoritmo de clustering basado en el modelo de Sparse Subspace Clustering (SSC), el cual tiene en cuenta la correlacion espacial existente entre firmas espectrales. Se realizaron diferentes simulaciones para validar el metodo de clasificación propuesto. En general, se obtuvo una precisión global del 73.07%, 80.12% y del 83.81% utilizando las imagenes espectrales de “Indian Pines”, ´ “Salinas” y “Pavia University”, respectivamente, anadiendo ˜ 25 dB de relacion señal ˜ / ruido a las mediciones comprimidas.Item Aceleración energéticamente eficiente de aplicaciones científicas de gran escala sobre arquitecturas heterogéneas(Universidad Industrial de Santander, 2017) Garcia Henao, John Anderson; Barrios Hernandez, Carlos Jaime; Navaux, Philippe Olivier AlexandreLa computaci´on de alto rendimiento es hoy una herramienta fundamental para la investigaci´on cient´ıfica y la competitividad industrial. Por lo que requiere construir grandes sistemas computacionales con mayor rendimiento, los cuales ven limitada su capacidad por el consumo energ´etico y la subutilizaci´on de recursos computacionales en aplicaciones que realizan una mala distribuci´on de tareas, es as´ı como maximizar el rendimiento por watt y realizar un buen mapeo de tareas es uno de los principales retos para construir la siguiente generaci´on de sistemas exascale. Este trabajo de investigaci´on presenta una comparaci´on de consumo de energ´ıa en tiempo de ejecuci´on, entre arquitecturas heterog´eneas tipo CPU-GPU con diferentes frecuencias de reloj y n´umero de CUDA@cores dentro de un mismo chip, al usar StarPU, para portabilizar y balancear la carga de trabajo de aplicaciones cient´ıficas. Como caso de estudio se seleccion´o Ondes3D, una simulaci´on de la propagaci´on de ondas s´ısmicas para analizar fuertes movimientos en superficies de la Tierra. Adicionalmente, se seleccion´o el LINPACK Benchmark (HPL), para colectar datos del problema de la subutilizaci´on de recursos computacionales sobre arquitecturas heterog´eneas. Se construy´o enerGyPU un monitor de rendimiento y consumo de potencia, para evaluar y caracterizar los factores computacionales que regulan la eficiencia energ´etica sobre nodos heterog´eneos con multiples GPU. Asimismo, se dise˜no un esquema integrado llamado Aceleraci´on Energ´eticamente Eficiente (AEE), el cual utiliza: frameworks de balanceo de carga (ej. StarPU), para el mapeo de tareas sobre los recursos computacionales; seguidamente, usa enerGyPU para la captura de m´etricas de rendimiento computacional y consumo de potencia, para as´ı, caracterizar la aplicaci´on y la arquitectura computacional; por ultimo utiliza el sistema de predicci´on AEE, para obtener la combinaci´on de recursos computacionales que maximizan la eficiencia energ´etica en aplicaciones que se ejecuten sobre arquitecturas heterog´eneas tipo CPU-GPU.Item Proceso de identificación de requisitos de software de aplicaciones móviles que apoyen la gestión de servicios ofrecidos al ciudadano en organizaciones gubernamentales(Universidad Industrial de Santander, 2017) Moreno Tarazona, Manuel Arturo; Galviz Lista, Ernesto Amaru; Gomez Florez, Luis CarlosEste tesis de maestría presenta un proceso software para la identificación de oportunidades de desarrollo de aplicaciones móviles en las organizaciones gubernamentales que promuevan la gestión de los recursos y servicios que son ofrecidos al ciudadano, resultado de una revisión del estado del arte a partir de documentos encontrados en bases de datos científicas y estrategias gubernamentales, sobre los servicios y trámites que ofrecen las organizaciones gubernamentales a los ciudadanos en países con un alto índice de desarrollo respecto a las tecnologías de información y comunicaciones (TIC). A través del análisis de la búsqueda mencionada previamente y de planes de desarrollo de la cartera Ministerial TIC de Colombia, se caracterizan los servicios ofrecidos por dichas organizaciones y se diseña el proceso software para luego ser ilustrado a través de un estudio de caso en un Consultorio Jurídico, entidad adscrita a la Universidad Industrial de Santander, organización gubernamental colombiana, obteniendo como resultado la ideación de una aplicación móvil que facilite la prestación de los trámites allí ofrecidos, en el Proceso de identificación de requisitos de software de aplicaciones móviles que apoyen la gestión de servicios ofrecidos al ciudadano en organizaciones gubernamentalesItem Modelo de sistema de información basado en open innovation para la gestión de la calidad en laboratorios de análisis de muestras(Universidad Industrial de Santander, 2017) Ramirez Gomez, Herman; Gomez Florez, Luis CarlosAnte la importancia que actualmente representa la gestión de calidad en todo tipo de organización, debido a su enfoque de mejora continua y la efectividad de los procesos, se encuentra la necesidad de generar iniciativas que aporten a su apropiación. En este sentido, el presente trabajo de investigación ha tomado como caso de estudio a las instituciones de educación superior, más específicamente a los laboratorios de ensayo y análisis de muestras (que son parte esencial en la acreditación de las mismas, y que utilizan como norma de calidad la ISO/IEC 17025), para proponer un modelo de sistema de información basado en los principios de innovación abierta que apoye la gestión de la calidad en los mismos. Por consiguiente, al tener en cuenta el tema de innovación abierta, las dificultades al gestionar la calidad en los laboratorios y la visión de la UIS, se encontró importante abordar este tema de investigación, mediante la incorporación de los principios del paradigma de innovación abierta al modelo propuesto, donde se resaltan: (i) el aprovechamiento de los conocimientos y la experiencia de los individuos de cada laboratorio; (ii) la identificación de las actividades externas a cada laboratorio en relación a prácticas de gestión de la calidad para compartirlas y apropiarlas; (iii) el uso y transferencia de las ideas externas e internas a los laboratorios. En este trabajo se siguió la metodología de investigación – acción, la cual asume que los sistemas sociales complejos no pueden ser reducidos para el estudio cuantitativo, y aborda la investigación de sistemas de información como investigación social (Baskerville 1999). Consecuentemente, se inició con una revisión de literatura, para continuar con un acercamiento a la situación problemática del caso de estudio, y de esta forma proponer el modelo mencionado y un diseño de prototipo software que logre apoyar su implementación futuraItem Algoritmo para caracterización de rocas por medio de imágenes de tomografía computarizada(Universidad Industrial de Santander, 2017) Barajas Solano, Crisostomo Alberto; Arguello Fuentes, HenryEl uso de Tomografía Computarizada de doble energía en muestras de roca permite visualizar su estructura interna, propiedades básicas, flujo de fluidos y fenómenos asociados al desplazamiento de crudo debido a agentes de recobro mejorado, de manera no invasiva y no destructiva, en comparación con las técnicas clásicas reportadas en la literatura. Este proyecto de investigación propone la estimación de propiedades petrofísicas estáticas y dinámicas de una muestra de roca, obtenida de un yacimiento de crudo, mediante el uso de tomografía computarizada, con el objetivo de apoyar la selección de la técnica de recobro mejorado a aplicar en una determinada formación de interés. El presente trabajo de investigación se enmarca dentro de la convocatoria de Colciencias 531-2011 Técnicas avanzadas de imágenes en medios presentado por la Universidad Industrial de Santander, en alianza con ECOPETROL S.A. 1Item Herramienta computacional para la detección y clasificación automática de granulocitos como soporte al diagnóstico de leucemia mieloide crónica utilizando procesamiento de imágenes, machine learning y el modelo de representación bag-of-features(Universidad Industrial de Santander, 2017) Hasbon Reyes, Luis Eduardo; Rojas Morales, Fernando Antonio; Bautista Rozo, Lola XiomaraDebido al incremento acelerado de la población urbana y a la inmediata pretensión de habitar en sinergia con el medio ambiente, surge la necesidad de implementar soluciones sostenibles en áreas claves y de gestar un cambio en el sector de la construcción que faculte la generación de un crecimiento ordenado y sostenible en las urbes, agregue valor real al usuario y logre consolidar a las empresas constructoras como competitivas tanto a nivel nacional como internacional. Por ende, el objetivo final del proyecto es la creación de un estudio de diseño para el sector construcción que desencadene un cambio positivo en el sector, el cual actualmente ha dejado a un lado el fin último de su producto, la habitabilidad, resultado de las estrategias competitivas que tienen que afrontar por la acelerada demanda y oferta del mercado. Por consiguiente, a partir de las metodologías "Disciplined Entrepreneurship" y "Design Thinkig" se gesta la creación de la empresa y de su primer proyecto enfocado en viviendas de interés social en el Área Metropolitana de Bucaramanga Santander, Colombia. A partir de las fases concepción, desarrollo y lanzamiento implementadas en el proyecto, se obtiene como resultado la creación del estudio de diseño SEAS y la identificación, caracterización y convergencia de los diferentes actores, lo que conlleva a la concepción de un diseño piloto de vivienda progresiva sostenible, proyecto INVIRA, bajo los pilares de sostenibilidad social, ambiental y económica.