Maestría en Ingeniería de Sistemas e Informática
Permanent URI for this collection
Browse
Recent Submissions
Item Biomarcador digital para la cuantificación de patrones parkinsonianos usando información audiovisual(Universidad Industrial de Santander, 2023-07-28) Valenzuela Rincón, Brayan Camilo; Martínez Carrillo, Fabio; Arévalo Ovalle, John Edilson; Pertuz Arroyo, Said David; Malpica González, Norberto AntonioLa enfermedad de Parkinson es un trastorno neurodegenerativo que afecta a un gran número de personas en todo el mundo. Desordenes del habla y las alteraciones del movimiento facial son síntomas representativos de la enfermedad, estudiados manualmente por neurólogos expertos. En este contexto, se han desarrollado redes neuronales especializadas para el análisis de audio (voz) y vídeo (rostro), con el fin de apoyar el diagnóstico de la enfermedad. En este trabajo, proponemos la integración de representaciones profundas audiovisuales, aprendidas por dos redes neuronales independientes especializadas en el análisis de alteraciones faciales y auditivas. Para ello, se definió un protocolo de captura para adquirir secuencias audiovisuales totalmente sincronizadas en una población de pacientes diagnosticados de enfermedad de Parkinson y sujetos control. Los resultados obtenidos demostraron que la integración de fuentes de información neurológicamente sincronizadas, juega un factor fundamental en la detección de patrones relacionados con la enfermedad de Parkinson, consiguiendo una mejora en el diagnóstico de hasta el 10,22\% del Área bajo la curva ROC (AUC). En particular, los resultados sugieren que la información aprendida por la red de audio actúa de forma complementaria a la información procedente del vídeo, sugiriendo que la simple integración lineal a partir de diferentes modalidades sensoriales, es suficiente para mejorar la detección y diagnóstico de la enfermedad de Parkinson. Este trabajo representa un esfuerzo preliminar hacia el análisis multimodal de estos síntomas, con el objetivo de mejorar tanto la comprensión como el diagnóstico de la enfermedad.Item Una representación de traslación profunda no alineada para aproximar patrones vasculares de pólipos de banda cercana a partir de secuencias de colonoscopía estándar(Universidad Industrial de Santander, 2023-08-05) Sierra Jerez, Franklin Samuel; Martínez Carrillo, Fabio; Giraldo Franco, Diana Lorena; Tibamoso Pedraza, GerardoLos pólipos son el principal biomarcador del cáncer colorrectal, siendo sus patrones vasculares fundamentales para categorizar la malignidad de la enfermedad. Estos patrones se observan típicamente in situ a partir de imágenes especializadas de banda estrecha (NBI, por sus siglas en inglés). No obstante, esta categorización sigue siendo sesgada incluso en las observaciones de expertos, reportando errores en la clasificación que van desde el 59.5% hasta el 84.2%. Un desafío actual es lograr la categorización de la malignidad de los pólipos a partir de colonoscopias estándar. Este trabajo presenta una estrategia computacional que permite la clasificación de la malignidad de los pólipos a partir de colonoscopias estándar, recuperando la vascularidad mediante una tarea de traducción. Para hacerlo, una tarea de traducción no alineada desde la colonoscopia óptica (OC) hasta NBI permite el ajuste de la representación profunda. En un estudio retrospectivo, las secuencias ópticas mejoradas se validaron en cuanto a su capacidad de discriminación entre adenomas y muestras hiperplásticas logrando una puntuación F1 del 0.86%. El grupo de estudio incluyó 8 videos de adenomas (4524 fotogramas) y 4 secuencias hiperplásticas (952 fotogramas). Además, las muestras serradas se proyectaron en la representación entrenada, logrando diferencias estadísticas con respecto a los biomarcadores de tipo adenoma e hiperplásticas con un valor de ρ-value < 0.05 según el test de U de Mann-Whitney.Item Representaciones profundas débilmente supervisadas para la segmentación de pólipos colorrectales en secuencias continuas de colonoscopia(Universidad Industrial de Santander, 2023-08-06) Ruiz García, Lina Marcela; Martínez Carrillo, Fabio; Gélvez Barrera, Tatiana Carolina; Larrabide, IgnacioEl cáncer colorrectal es el tercer cáncer más diagnosticado a nivel mundial. Los pólipos se consideran los principales biomarcadores de este cáncer, observándose a partir de colonoscopias. Sin embargo, la detección y caracterización de estas lesiones es un reto, incluso para los gastroenterólogos expertos, debido a la variabilidad en forma y apariencia, los artefactos del tracto intestinal, y las observaciones ruidosas de las colonoscopias. De hecho, estudios clínicos revelan una pérdida de pólipos de hasta el 26% durante una rutina clínica, lo que repercute en el diagnóstico precoz y el tratamiento de los pacientes. Algunos enfoques computacionales han apoyado la caracterización de pólipos, pero dependen de representaciones supervisadas, trabajando en secuencias con pólipos relativamente bien definidos. Alejadas de tal suposición, las colonoscopias en escenarios reales son secuencias largas donde los pólipos son observaciones aisladas y escasas en cuanto al tracto intestinal. Este trabajo propone una estrategia de atención cruzada multi-cabeza para segmentar pólipos bajo un esquema débilmente supervisado, incluyendo fotogramas de fondo. Mientras que el mecanismo de atención extrae patrones del pólipo aprendiendo relaciones no locales de los píxeles a través de convoluciones dilatadas, la regla de minimización diferencia entre imágenes con pólipo y fondo. La validación del método propuesto se realizó en un estudio retrospectivo que incluye 40 colonoscopias (∼15.000 fotogramas por video). A pesar de la aproximación del estado del arte, este conjunto de datos representa el primer esfuerzo para aproximar la segmentación en escenarios reales. El método propuesto obtiene 70% de precisión y 75% de sensibilidad en secuencias largas, mostrando un rendimiento destacable. Asímismo, el método fue validado en conjuntos de datos públicos superando al estado del arte con una precisión de 92% (ASU-Mayo) y 96% (CVC-Video).Item Estratificación de la malignidad de los nódulos pulmonares en secuencias de tomografía computarizada (TC) utilizando representaciones discriminativas profundas(Universidad Industrial de Santander, 2023-08-04) Moreno Tarazona, Alejandra; Martínez Carrillo, Fabio; Rueda Olarte, Andrea del Pilar; Malpica González, Norberto Antonio; Romo Bucheli, David EdmundoEl cáncer de pulmón se mantiene como la principal causa de mortalidad relacionada con el cáncer a nivel mundial. Los nódulos son el principal hallazgo radiológico, típicamente observado a partir de tomografías computarizadas de baja dosis. Estas masas se estratifican de forma general según patrones texturales y geométricos, siguiendo los criterios establecidos por el protocolo Lung-RADS. No obstante, la caracterización del diagnóstico de los nódulos sigue siendo subjetivo, reportando un acuerdo moderado entre los expertos. Peor aún, únicamente el 5% de los nódulos tienen una correlación asociada con el cáncer de pulmón, lo que conduce a una alta tasa de falsos positivos durante el análisis de los expertos. Actualmente, los enfoques computacionales apoyan el diagnóstico a partir de las observaciones de los nódulos, pero fundamentalmente entre clases malignas y benignas. Incluso peor, muchos nódulos carecen de diagnóstico debido a su naturaleza indeterminada. Este trabajo introduce una arquitectura multi-atención dedicada a la clasificación múltiple de nódulos, que se beneficia de mapas de saliencia locales, intermedios y no locales, aprendidos a partir de ramas independientes. La validación incluye un extenso análisis respecto a las características de múltiple atención, permitiendo establecer una correlación con otros hallazgos radiológicos. Asimismo, se incluyó en este estudio una concordancia con múltiples radiólogos. El enfoque propuesto alcanza un AUC de 85,35% para una multi-clasificación clásica y un AUC promedio de 82,90% en un esquema de validación de uno contra todos. Ambos esquemas de clasificación se ejecutaron en una configuración de validación cruzada de k-fold, mostrando resultados competitivos en el estado del arte. Una vez realizado el entrenamiento de la arquitectura, los nódulos indeterminados fueron mapeados al método propuesto para obtener un soporte en la clasificación de la malignidad.Item Identificación de incendios forestales en imágenes satelitales usando Machine Learning/Deep Learning apoyado en sistemas computacionales integrados(Universidad Industrial de Santander, 2023-07-14) Pérez Argüello, Jhon Deivy; Rodríguez Ferreira, Julián Gustavo; Barrios Hernández, Carlos Jaime; Pertuz Arroyo, Said David; Mejía, JohnLa detección temprana de incendios forestales es un aspecto crítico en la lucha contra los desastres naturales que involucra a empresas, instituciones académicas y gobiernos. La inteligencia artificial puede ser una herramienta valiosa en la tarea de identificación de incendios forestales y en la promoción del uso de tecnologías avanzadas en los procedimientos actuales, pero su aplicación requiere una gran capacidad computacional y energética. Con este objetivo, se presenta un modelo de identificación de incendios forestales en imágenes satelitales de alta resolución que es altamente confiable y eficiente, y puede ser ejecutado en un sistema embebido. Se creó un Dataset de imágenes satelitales con bandas espectrales "M3I3M11", se entrenaron dos redes neuronales con este Dataset y se desarrolló un sistema de visión artificial llamado IGNIS, que funciona sin necesidad de entrenamiento previo y utiliza la biblioteca OpenCV. Para elegir el mejor de los tres algoritmos, se ejecutaron en el hardware embebido Jetson Nano de Nvidia, evaluando factores como la temperatura del dispositivo, el consumo energético, la memoria RAM, la GPU y la confiabilidad de las inferencias. La evaluación demuestra que el algoritmo IGNIS obtuvo el mejor puntaje en términos de confiabilidad con un 98% y en términos de consumo de recursos con un 29%.Item Cuantificación de patrones de Parkinson modelados como eventos anormales utilizando una estrategia de aprendizaje profundo generativo(Universidad Industrial de Santander, 2023-05-23) Rangel Pieschacón, Édgar; Martínez Carrillo, Fabio; Vanegas, Martha Isabel; Rueda Olarte, Andrea del PilarLa enfermedad de Parkinson (EP) es el segundo trastorno neurodegenerativo más frecuente del mundo y afecta a más de 6,2 millones de personas. Esta enfermedad se asocia a la deficiencia del neurotransmisor dopamina, relacionado con el control de los movimientos voluntarios. En consecuencia, la EP se asocia a trastornos del movimiento de la marcha, como bradicinesia, rigidez, temblores e inestabilidad postural, causados por la deficiencia progresiva de dopamina. En la actualidad, algunos enfoques han implementado representaciones de aprendizaje para cuantificar los patrones cinemáticos durante la locomoción, apoyando procedimientos clínicos como el diagnóstico y la planificación del tratamiento. Estos enfoques asumen una gran cantidad de datos estratificados y etiquetados para optimizar las representaciones discriminativas. Sin embargo, estas consideraciones pueden restringir los enfoques para ser operables en escenarios reales durante la práctica clínica. Este trabajo introduce una representación generativa autosupervisada para aprender patrones relacionados con el movimiento de la marcha, con el pretexto de la reconstrucción de vídeo y un marco de detección de anomalías. Esta arquitectura se entrena siguiendo un aprendizaje débilmente supervisado de una clase para evitar la varianza interclase y aproximarse a las múltiples relaciones que representan la locomoción. El enfoque propuesto se validó con dos conjuntos de datos que contenían un total de 133 pacientes con diagnóstico de control, parkinson y artrosis de rodilla, alcanzando AUC de 80,6% y 75%, nivel de homocedasticidad de 80% y 66,7%; y nivel de conformación de 70% y 66,7% respectivamente. Estos resultados evalúan el modelo en su tarea de discriminación considerando su generalización para muestras no vistas.Item Segmentación de accidentes cerebrovasculares isquémicos en secuencias radiológicas utilizando mecanismos de atención con aprendizaje profundo(Universidad Industrial de Santander, 2023-06-05) Gómez Hernández, Santiago; Martínez Carrillo, Fabio; Castrillón Guzmán, Juan Gabriel; Villalón Reina, Julio ErnestoLa localización y delimitación de las lesiones cerebrales es un componente clave del diagnóstico de los accidentes cerebrovasculares, especialmente a partir de estudios de RM. Sin embargo, esta delineación manual requiere mucho tiempo y está sesgada por la opinión de los expertos. Este trabajo presenta una arquitectura de autocodificador que integra eficazmente mecanismos de atención cruzada, junto con supervisión profunda jerárquica para delinear lesiones en escenarios con gran desbalance de clases, geometría desafiante de la forma y una representación textural variable. En primer lugar, se propone un autocodificador profundo de atención cruzada para centrarse en la forma de la lesión a través de un conjunto de mapas convolucionales de saliencia, forzando las conexiones de salto para preservar la morfología del tejido afectado. Además, se adaptó un esquema de entrenamiento de supervisión profunda para inducir el aprendizaje de detalles jerárquicos de la lesión. Adicionalmente, una función de pérdida ponderada especial destaca el tejido de la lesión, aliviando el impacto negativo del desbalance de clases. El modelo propuesto se entrenó y validó eficazmente en estudios de RM. Interesantemente, el trabajo propuesto también se adaptó para segmentar lesiones de accidente cerebrovascular en secuencias de TC. Teniendo en cuenta el bajo contraste de los hallazgos radiológicos en los estudios de TC, el enfoque incluye una tarea de aprendizaje auxiliar para prestar atención a los bordes de la lesión. En cuanto a los estudios de RM, el enfoque propuesto se validó en el conjunto de datos público ISLES2017 superando los resultados del estado del arte, alcanzando un dice score de $0.36$ y una precisión de $0.42$. La mejor configuración arquitectónica se consiguió integrando las secuencias ADC, TTP y Tmax. Con respecto al rendimiento del modelo sobre secuencias TC, una evaluación sobre el conjunto de datos ISLES2018 mostró resultados competitivos de $0.42$ en dice score y $0.48$ en precisión. La contribución de los autocodificadores de atención cruzada profundamente supervisados permite un mejor apoyo en la discriminación entre las regiones sanas y lesionadas, lo que en consecuencia se traduce en un pronóstico y seguimiento favorables de los pacientes.Item Tecnica de posicionamiento gps apoyado en interaccion de dispositivos en ambientes urbanos(Universidad Industrial de Santander, 2019) Trigos Guevara, William Javier; Pedraza Ferreira, Gabriel Rodrigo; Ramos Pollan, RaulEl propósito de esta investigación radica en el planteamiento de un algoritmo de posicionamiento cooperativo mediante el cual un conjunto de dispositivos GPS o GNSS, intercambia información satelital y emplea las distancias de separación entre parejas de dispositivos, para mejorar el nivel de precisión en posicionamiento de manera individual o grupal. La distancia puede ser obtenida mediante sensores acoplados a los receptores GPS, y es considerada información adicional que permite formular un sistema de ecuaciones que describe la tarea de posicionamiento en modo cooperativo. En cuanto al algoritmo de posicionamiento planteado está apoyado en la técnica de mínimos cuadrados ponderados, con el propósito de considerar que los satélites con mayor elevación tienen mejor ponderación con respecto a satélites de baja elevación. Los escenarios evaluados en la investigación consideran que los observables pueden provenir de receptores de altas y/o bajas prestaciones, y con capacidad de intercambiar su información satelital con dispositivos cercanos, para mejorar su precisión en posicionamiento. Los resultados han demostrado que es posible incrementar el nivel de precisión, cuando los receptores emplean un modelo de corrección ionosférica similar. Se evidencia variabilidad en el nivel de precisión cuando las distancias entre receptores es menor a 1 Km. Concluyendo que la incertidumbre o ruido sobre el observable de distancia, influye sobre la precisión en posicionamiento cuando las distancias de separación entre receptores es corta.Item Representacion de patrones espacio-temporales para el reconocimiento de acciones(Universidad Industrial de Santander, 2019) Garzon Villamizar, Gustavo Adolfo; Martínez Carrillo, FabioEl reconocimiento de acciones es una tarea fundamental en diferentes áreas del conocimiento y aplicaciones, tales como: sistemas de realidad virtual, aplicaciones de tele-vigilancia, control de multitudes, videojuegos, entre otros. Esta tarea consiste en etiquetar, identificar o segmentar espacialmente objetos de interés que desarrollan una acción durante un intervalo temporal específico en una secuencia de video. A pesar de los grandes avances reportados en el estado del arte para el reconocimiento autómatico de acciones, existen múltiples limitaciones en cuanto a la caracterización y representación de las acciones debido a la complejidad de los escenarios de captura y la variabilidad del entorno. Además, la variabilidad de la apariencia, la geometría y la cinemática de las acciones humanas representan un desafío hoy en día en la comunidad de visión por computador. El método propuesto presenta dos variaciones para calcular descriptores compactos de ocurrencias orientados a reconocer acciones en secuencias parciales de video. Para ello se obtienen trayectorias de movimiento que representan la actividad en desarrollo. Sobre ellas se aplica un proceso de conteo que se encuentra acotado por una región y se centra en cada trayectoria. En este sentido, se obtienen las ocurrencias de trayectorias vecinas respecto a cada centro, dentro de cada subregión acotada, o se codifican de manera binaria en caso de cumplir con un umbral determinado (Minimal number of trajectories MNT). Se obtiene una representación intermedia al construir un diccionario con 400 valores que luego se mapea a un histograma que codifica las características de la acción que se esté ejecutando. Los dos métodos obtienen resultados prometedores en la clasificación de acciones utilizando un histograma de dimensionalidad reducida.Item Modelo dimensional para procesos académicos, investigativos y de seguimiento a graduados en instituciones de educación superior públicas(Universidad Industrial de Santander, 2023-02-26) Fuentes Vargas, David Antonio; Gómez Flórez, Luis Carlos; Mendoza Becerra, Martha Eliana; Bautista Rozo, Lola Xiomara; Bustamante Martínez, Alexander ArmandoUno de los más grandes problemas que enfrentan las Instituciones de Educación Superior consiste en lidiar con los grandes volúmenes de datos que generan cada semestre. En el caso particular de Colombia, esta situación se agudiza cuando el Consejo Nacional de Acreditación (CNA) solicita que las instituciones que deseen acreditarse muestren la calidad de su servicio por medio de datos. El presente proyecto propone suplir esta necesidad con un conjunto de modelos dimensionales basados en los factores de acreditación establecidos por el CNA que se relacionan con procesos académicos, investigación y seguimiento a graduados. Para el diseño de los modelos dimensionales de los factores antes mencionados se extraen requerimientos basados en informes de autoevaluación presentados por Instituciones de Educación Superior públicas al CNA, el Acuerdo 03 de 2014 y la opinión de tres expertas en acreditación. Con los requerimientos se realiza el conjunto de modelos dimensionales, que son validados por tres expertos en modelado dimensional por medio de un grupo focal. Finalmente, se implementa el modelo dimensional de matrícula estudiantil correspondiente al área de procesos académicos con base en los datos proporcionados por la Universidad Industrial de Santander, el cual también es validado por el área usuaria por medio de un test de satisfacción.Item Modelo de gestión de recursos computacionales para asistir la reproducibilidad de experimentos científicos(Universidad Industrial de Santander, 2023-03-13) Martínez Méndez, Alexander; Núñez de Villavicencio Martínez, Luis Alberto; Pedraza Ferreira, Gabriel Rodrigo; Barrios Hernández, Carlos Jaime; Rangel Smith, CamilaLa reproducibilidad, entendida como la capacidad de replicar o repetir los procesos de investigación, es la característica que permite validar el conocimiento producido en la actividad científica. Sin embargo, la reproducibilidad de la ciencia está en crisis. Diversos trabajos, encuestas y autores lo han evidenciado, especialmente desde el movimiento de Ciencia Abierta. El contexto tecnológico actual y las nuevas formas de hacer ciencia, el crecimiento exponencial en la producción de datos y el mismo sistema de medida de productividad de la comunidad académica, son solo algunas de las causas de esta crisis. Han surgido diversas y numerosas propuestas para resolver cada uno de los desafíos generados por la reproducibilidad de la ciencia, con el respaldo de la Ciencia Abierta. A pesar de esto, solucionar la crisis en la reproducibilidad requiere aún de grandes esfuerzos. El enfoque en el desarrollo de herramientas tecnológicas, más allá de su utilidad y calidad, no parece tener grandes efectos. Se debe abordar desde un enfoque integral, donde lo tecnológico vaya de la mano de las metodologías que soportan su uso. Las soluciones propuestas deben apoyar los procesos de investigación desde el planteamiento de la pregunta de investigación, hasta la publicación de los resultados. Es indispensable también la formación del personal de investigación en prácticas que fomenten la reproducibilidad. En este trabajo presentamos un modelo metodológico para asistir y mejorar la reproducibilidad de experimentos científicos en pequeños y/o medianos grupos de investigación. Su desarrollo giró en torno a tres acciones indispensables para la reproducibilidad: preservar, compartir y colaborar. El modelo ofrece rutas de acción para la gestión de datos, códigos computacionales, entornos software y la información volátil en experimentos (sus comunicaciones). La evaluación se desarrollo mediante la implementación de casos de uso, sobre una plataforma tecnológica abierta creada en el marco de este proyecto. El modelo y la plataforma tecnológica desarrollada permitieron crear entornos de investigación con la reproducibilidad como eje principal. Los procesos de preservación y documentación pasaron de ser una lista de entregables al final de una publicación científica, a ser una labor diaria en la práctica investigativa.Item Mecanismos autónomos para la autodescripción de arquitecturas IoT distribuidas(Universidad Industrial de Santander, 2023-03-02) Jiménez Herrera, Henry Andrés; Pedraza Ferreira, Gabriel Rodrigo; Garcés Pernett, Kelly Johanna; Carrillo, ÓscarLa gestión de sistemas IoT distribuidos es una tarea compleja, debido a la heterogeneidad y el dinamismo en los componentes del sistema y la escala de las aplicaciones desplegadas. Detectar de manera oportuna los cambios en los elementos software que componen una arquitectura IoT y compartir la información asociada a estos cambios correctamente es fundamental para realizar una administración eficiente. En este trabajo de investigación se ha propuesto una solución basada en computación autónoma que permite generar una representación de los elementos software que componen una arquitectura IoT. Para tal objetivo, primero: se definió un modelo conceptual que pudiera presentar una arquitectura IoT, segundo: se diseñó un conjunto de mecanismos autónomos que se encargan de monitorear, detectar, informar y analizar los cambios en el sistema para generar una representación del estado en tiempo cuasi-real basada en el modelo conceptual, esta representación es un repositorio de información para el sistema en sí mismo, que además provee una visualización orientada a grafos que permite a los administradores entender y gestionar mejor estos elementos, finalmente se valida el enfoque de la propuesta a través de la implementación de un prototipo que incluya los mecanismos descritos en la plataforma Smart Campus UIS y se realiza un conjunto de pruebas de coherencia, escalabilidad y rendimiento.Item End-to-End Optimization of a Coded Stereo Imaging System for Depth Estimation(Universidad Industrial de Santander, 2023-02-17) López Durán, Jhon Edinson; Argüello Fuentes, Henry; Meneses Fonseca, Jaime Enrique; Ramírez Rondón, Juan MarcosLa estimación de la profundidad es esencial para la comprensión de escenas, la conducción autónoma, la robótica y otras áreas. Sin embargo, la estimación de la profundidad sigue siendo un reto debido a la pérdida de información 3D durante el proceso de captura de imágenes RGB. A lo largo de los años, se han propuesto diferentes arquitecturas ópticas para capturar las escenas, desde una sola cámara hasta múltiples cámaras con iluminación activa o pasiva. También hay que desarrollar arquitecturas y métodos para la estimación de la profundidad en cualquier entorno. En este sentido, la adquisición de imágenes estereoscópicas es una arquitectura de adquisición eficiente, ya que imita el sistema de visión humano y estima la profundidad mediante estereopsis. Aunque las redes neuronales profundas mejoran el rendimiento de la estimación de la profundidad, sigue habiendo dificultades para predecir la profundidad absoluta y generalizar fuera de un entorno predeterminado. Por ello, recientemente se ha propuesto un enfoque denominado óptica profunda, que diseña elementos ópticos, como máscaras de fase y lentes difractivas, junto con el algoritmo de procesamiento de imágenes de forma integral. Por lo tanto, este trabajo propone utilizar el paradigma de la óptica profunda en la estimación de profundidad estereoscópica mediante el diseño de aperturas codificadas bajo un enfoque de optimización de extremo a extremo. El enfoque profundo propuesto se evalúa utilizando un conjunto de datos de última generación y, además, el método propuesto se valida en una configuración óptica real.Item Coded Aperture Design for Compressive Spectral Image Classification Using Deep Learning(Universidad Industrial de Santander, 2022-09-07) Silva Maldonado, Nelson Mauricio; Argüello Fuentes, Henry; Galvis Carreño, Laura Viviana; Díaz Díaz, Nelson Eduardo; Medina Rojas, FerleyLa teoría del sensado compresivo habilita la reconstrucción de imágenes espectrales usando un número menor de observaciones que las dictadas por el enfoque tradicional basado en el teorema de Shannon-Nyquist a través de sistemas de imágenes compresivos (CSI). Estos sistemas CSI se apoyan en un montaje óptico basado en un elemento dispersivo acoplado a una o más aperturas codificadas para capturar y comprimir una escena espectral de manera simultánea. Después, la reconstrucción de la escena subyacente se obtiene a través de algoritmos computacionales. Luego las tareas de procesamiento como clasificación, detección de objetos y segmentación son ejecutadas sobre las imágenes reconstruidas. Sin embargo, este proceso de reconstrucción es costoso desde el punto de vista computacional. La descompresión hace que se requiera más tiempo y recursos para realizar este tipo de tareas . En este trabajo de investigación la clasificación espectral se realiza directamente sobre las medidas comprimidas que se adquirieron a través de una arquitectura óptica que sigue los lineamientos de la teoría de sensado compresivo (CS). Se propone un método de extremo a extremo para la optimización conjunta de las aperturas codificadas y los parámetros del modelo de aprendizaje profundo que se usará para la clasificación. Este enfoque se aplicó a la clasificación de afecciones particulares del limón Tahití (Citrus latifolia), pero puede ser usado para distintos productos agrícolas. Además, con el objetivo de comparar los resultados obtenidos, se encontró que nuestros experimentos mejoraron hasta en un 6\% la precisión en clasificación cuando las aperturas codificadas fueron optimizadas respecto al uso de aperturas aleatorias.Item Un modelo de representación profunda para clasificar grados de Gleason de cáncer de próstata(Universidad Industrial de Santander, 2022-09-07) León Pérez, Fabián Andrés; Martínez Carrillo, Fabio; Rueda Olarte, Andrea del Pilar; Camargo Mendoza, Jorge EliécerEl análisis de imágenes histopatológicas es el método más preciso para caracterizar, diagnosticar y cuantificar los estadios del cáncer. La escala de Gleason es el estándar de oro, en la rutina clínica, para estratificar la agresividad de la enfermedad, lo que permite a los patólogos ponderar segmentos de imágenes de acuerdo con la disposición arquitectónica y morfológica de las células cancerosas. No obstante, esta tarea es altamente subjetiva, variable y depende en gran medida de la experticia y experiencia de los patólogos, lo que afecta el diagnóstico de la enfermedad. Por ejemplo, estudios recientes informan un nivel de discordancia entre 41 patólogos de hasta 0,45 en términos del valor kappa en un conjunto de 38 imágenes. Recientemente, los modelos de aprendizaje profundo han surgido como una alternativa para clasificar y apoyar las tareas de estratificación del cáncer, siguiendo el sistema de Gleason. Sin embargo, estos modelos siguen estando limitados para aprender la complejidad de los patrones histológicos observados debido a la alta variabilidad para representar cada grado de cáncer, con una marcada superposición de representación entre clases. Además, las representaciones pueden estar sesgadas a un observador específico, y las muestras de entrenamiento pueden resultar limitadas con un desequilibrio de clase inherente, presente en escenarios clínicos. Este trabajo presenta un enfoque de aprendizaje multitarea para representar las relaciones intra e inter-Gleason de las muestras más desafiantes, siguiendo dos ramas: una pérdida de tripletas y una entropía cruzada condicionada. En tal sentido, el enfoque propuesto usa una métrica de distancia de tripletas semidifícil como tarea principal para abordar la estratificación de Gleason, entrenada con parches positivos y negativos desafiantes en un nivel particular de Gleason. Luego, se propuso aquí una tarea auxiliar para regularizar el espacio embebido, que permitiera lidiar con la alta inter e intra-apariencia de los cuatro grados, considerados en la estratificación de Gleason. Como regularizador, el enfoque propuesto utiliza una regla de entropía cruzada. El enfoque propuesto se validó en un conjunto de datos públicos con 886 microarreglos de tejido, que en el subconjunto de prueba fue delineado de forma independiente por dos uropatólogos expertos, de acuerdo con el sistema de clasificación de Gleason. El enfoque propuesto logra una clasificación general de exactitud promedio de 66% y 64%, para dos expertos sin diferencia estadística. Además, el enfoque propuesto logró una exactitud promedio del 73% en parches en los que ambos patólogos estaban de acuerdo, lo que demuestra la robustes de los patrones que aprenden del enfoque.Item Estudio del despliegue y ejecución de aplicaciones sobre arquitecturas Post-Moore(Universidad Industrial de Santander, 2022-05-26) Rojas Yepes, Pablo Josué; Barrios Hernández, Carlos Jaime; Steffenel, Luiz Angelo; Martínez Abaúnza, Víctor Eduardo; Hernández Barragán, Esteban de Jesúsla mejora en las capacidades computacionales durante las últimas décadas se ha basado en la ley de Moore, pero debido a varios factores ha perdido su validez. Para seguir avanzando, se han propuesto varias soluciones para abordar estas falencias, esto ha generado la aparición y rápida diversificación de dispositivos. Estos nuevos dispositivos usan las ventajas de la ley de Moore en nuevos enfoques para superar los límites de la ley, recibiendo el nombre de Post-Moore. Dichos dispositivos Post-Moore ofrecen capacidades de rendimiento que merecen ser estudiadas mediante el despliegue y ejecución de aplicaciones. Además de los dispositivos, las necesidades de las aplicaciones limitan la elección de los dispositivos, ya que deben cubrir sus necesidades. Este estudio identifica las características que tienen estos dispositivos para ser etiquetados como Post-Moore. Con las características propuestas se eligen dispositivos que cubren las necesidades de las aplicaciones. A estos dispositivos y aplicaciones se les establecen estrategias de despliegue que usan lineamientos que procuran minimizar el impacto en el rendimiento computacional. Además, se dispone de mecanismos de evaluación que permiten medir la escalabilidad, portabilidad, eficiencia e impacto en el rendimiento según el despliegue de las aplicaciones. Al final, usando los dispositivos, aplicaciones, estrategias de despliegue, lineamientos y mecanismos de evaluación, se mide el impacto en el rendimiento computacional. La escalabilidad, eficiencia e impacto en el rendimiento se grafican como resultados comparativos según su estrategia de despliegue. Basado en los resultados se avalan los lineamientos propuestos para el despliegue de las aplicaciones. Esto permite una caracterización de la eficiencia computacional de estos dispositivos.Item Algoritmo Semisupervisado para el etiquetado de imágenes basado en métodos de aprendizaje profundo(Universidad Industrial de Santander, 2022-03-30) Plazas Wadynski, Miguel Alberto; Ramos-Pollán, Raúl; Martínez Carrillo, Fabio; Pedraza Ferreira, Gabriel Rodrigo; Cruz Roa, Ángel AlfonsoLas técnicas de aprendizaje semi-supervisado (SSL) exploran estrategias para el descubrimiento progresivo de la estructura oculta y latente de los datos. Para ello, estas estrategias hacen propagación de información supervisada sobre datos no etiquetados, que se utilizan posteriormente para reforzar el aprendizaje. Estos esquemas son beneficiosos en la teledetección, donde se agregan miles de imágenes nuevas todos los días y los resultados del etiquetado manual son prohibitivos. Este trabajo presenta un enfoque novedoso de aprendizaje profundo semi-supervisado basado en conjuntos que inicialmente toma un subconjunto de datos etiquetados 𝒟ℓ, que representa la estructura latente de los datos, y propaga etiquetas de forma progresiva y automática desde un conjunto de datos de expansión sin etiquetar 𝒟𝓊. La estrategia de ensamble es un conjunto de clasificadores cuyas predicciones se recopilan para derivar una predicción consolidada. Solo aquellos datos que tienen una predicción de alta confianza se consideran etiquetas recién generadas. El enfoque propuesto se validó exhaustivamente en cuatro conjuntos de datos públicos, logrando resultados apreciables en comparación con los métodos de última generación en la mayoría de las configuraciones evaluadas. Para todos los conjuntos de datos, el enfoque propuesto logró una puntuación de F1-score y un Recall de hasta un 90%, en promedio. El esquema SSL y recursivo también demostró una ganancia promedio de ~2% en la última etapa de entrenamiento en conjuntos de datos grandes.Item Propuesta de modelo de simulación dinámico sistémico difuso para la gestión del ciclo productivo de plantaciones agrícolas, aplicado al ciclo fenológico de cítricos(Universidad Industrial de Santander, 2021) Mojica Estrada, José Luis; Andrade Sosa, Hugo Hernando; Barrios Hernández, Carlos Jaime; Ricaurte Galvis, JenniferLa gestión productiva agrícola es ineficiente en muchos casos, especialmente en aquellos en los que no hay un control productivo o un mal cálculo de la lámina de riego. Una mala gestión agrícola afecta negativamente el uso de los recursos hídricos. Así como impacta la seguridad alimentaria de una nación, debido que las plantaciones poseen un umbral productivo, el cual puede desaprovecharse en los casos que los cultivos tengan una producción no regulada. Como propuesta de mejora de la gestión productiva, se plantea un modelo Dinamico-Sistemico de simulación de la gestión agrícola, aplicado a cultivos de cítricos que integra los ciclos de realimentación del fenómeno, construido y evaluado con la literatura agroindustrial publicada. El modelo de simulación se construye en base al paradigma Dinamico-Sistemico integrado con lógica difusa, con el objetivo de lograr una sinergia entre los conocimientos del experto en el área agrícola y el modelo planteado, al aprovechar las características lingüísticas y complejidad no lineal de la metodología difusa. El modelo de Dinámica de Sistemas Difuso representa el fenómeno de dinámica hídrica (Variable según las condiciones del suelo) y su causalidad en el índice de estrés hídrico y la producción de cítricos, así como su relación no lineal con algunos elementos mayores y su consumo. Las aplicaciones del modelo de simulación se plantean desde el cálculo de la lámina de riego, riego automático y gestión productiva de cultivos de cítricos.Item Reconocimiento estructurado y continuo de signos en la lengua de señas registrados en video(Universidad Industrial de Santander, 2021) Rodríguez Chivatá, Jefferson David; Martínez Carrillo, Fabio; Cruz Roa, Ángel Alfonso; Arévalo Ovalle, John EdilsonLas lenguas de señas son el principal mecanismo de comunicación en la comunidad sorda. Estas lenguas son muy variables en la comunicación, con divergencias entre la representación de los gestos, la configuración de los signos y múltiples variantes debido a aspectos culturales. Los métodos actuales para la traducción automática y continua de signos incluyen modelos de aprendizaje profundo que codifican la representación visual de los signos. A pesar de los importantes avances, la convergencia de estos modelos requiere enormes cantidades de datos para explotar la representación de las señas, lo que da lugar a modelos muy complejos. Este hecho se asocia a la mayor variabilidad, pero también a la escasa exploración de muchos componentes del lenguaje que sustentan la comunicación. Por ejemplo, el movimiento gestual y la estructura gramatical son componentes fundamentales en la comunicación, que pueden hacer frente a interpretaciones erróneas de los signos visuales y geométricos durante el análisis del vídeo. Este trabajo introduce una arquitectura compacta para la traducción de señas a texto que explora el movimiento como alternativa para apoyar la traducción de signos. Dicha caracterización resulta robusta a la varianza de la apariencia con apoyo a las variaciones geométricas. Además, este trabajo propone dos módulos que aportan robustez al componente estructural reflejado directamente en la traducción. La arquitectura propuesta se evaluó en un conjunto de datos propio de lengua de señas colombiana construido específicamente para esta tarea (CoL-SLTD) dedicado al estudio del movimiento y de la estructura de las oraciones, también en un conjunto de datos del estado del arte llamado RWTH-Phoenix-weather. Del conjunto de datos CoL-SLTD, la mejor configuración reporta una puntuación BLEU-4 de 35.81 en el conjunto de pruebas. En cuanto al RWTH-Phoenix-weather, la estrategia propuesta alcanzó una puntuación BLEU-4 en prueba de 4.65 mejorando los resultados en condiciones reducidas similares.