Escuela de Ingeniería de Sistemas e Informática
Permanent URI for this community
Browse
Browsing Escuela de Ingeniería de Sistemas e Informática by Title
Now showing 1 - 20 of 267
Results Per Page
Sort Options
Item Aceleración energéticamente eficiente de aplicaciones científicas de gran escala sobre arquitecturas heterogéneas(Universidad Industrial de Santander, 2017) Garcia Henao, John Anderson; Barrios Hernandez, Carlos Jaime; Navaux, Philippe Olivier AlexandreLa computaci´on de alto rendimiento es hoy una herramienta fundamental para la investigaci´on cient´ıfica y la competitividad industrial. Por lo que requiere construir grandes sistemas computacionales con mayor rendimiento, los cuales ven limitada su capacidad por el consumo energ´etico y la subutilizaci´on de recursos computacionales en aplicaciones que realizan una mala distribuci´on de tareas, es as´ı como maximizar el rendimiento por watt y realizar un buen mapeo de tareas es uno de los principales retos para construir la siguiente generaci´on de sistemas exascale. Este trabajo de investigaci´on presenta una comparaci´on de consumo de energ´ıa en tiempo de ejecuci´on, entre arquitecturas heterog´eneas tipo CPU-GPU con diferentes frecuencias de reloj y n´umero de CUDA@cores dentro de un mismo chip, al usar StarPU, para portabilizar y balancear la carga de trabajo de aplicaciones cient´ıficas. Como caso de estudio se seleccion´o Ondes3D, una simulaci´on de la propagaci´on de ondas s´ısmicas para analizar fuertes movimientos en superficies de la Tierra. Adicionalmente, se seleccion´o el LINPACK Benchmark (HPL), para colectar datos del problema de la subutilizaci´on de recursos computacionales sobre arquitecturas heterog´eneas. Se construy´o enerGyPU un monitor de rendimiento y consumo de potencia, para evaluar y caracterizar los factores computacionales que regulan la eficiencia energ´etica sobre nodos heterog´eneos con multiples GPU. Asimismo, se dise˜no un esquema integrado llamado Aceleraci´on Energ´eticamente Eficiente (AEE), el cual utiliza: frameworks de balanceo de carga (ej. StarPU), para el mapeo de tareas sobre los recursos computacionales; seguidamente, usa enerGyPU para la captura de m´etricas de rendimiento computacional y consumo de potencia, para as´ı, caracterizar la aplicaci´on y la arquitectura computacional; por ultimo utiliza el sistema de predicci´on AEE, para obtener la combinaci´on de recursos computacionales que maximizan la eficiencia energ´etica en aplicaciones que se ejecuten sobre arquitecturas heterog´eneas tipo CPU-GPU.Item Adquisición adaptativa de imágenes espectrales comprimidas en el infrarrojo cercano basada en el sistema de captura de único píxel mediante aprendizaje profundo(Universidad Industrial de Santander, 2024-11-12) Monroy Chaparro, Brayan Esneider; Bacca Quintero, Jorge Luis; Argüello Fuentes, Henry; Díaz Díaz, Nelson Eduardo; Giraldo, Jhony H.La adquisición de imagenes espectrales comprimidas (CSI, por sus siglas en inglés) son una tecnología eficiente utilizada para obtener información espacial y espectral. A diferencia de las técnicas convencionales de escaneo espectral, CSI captura solo unas pocas imágenes instantáneas, evitando largos tiempos de adquisición y sensores especializados costosos. Este enfoque tiene aplicaciones en la agricultura de precisión y en la teledetección. En el rango del infrarrojo cercano (NIR), más allá del espectro visible, CSI es particularmente valiosa ya que no se dispone de sensores con alta resolución espacial y espectral. Específicamente, la técnica de imagen de un solo píxel basada en Hadamard (HSPI) presenta sistemas de adquisición rentables para capturar imágenes NIR de alta calidad. Sin embargo, la captura de imágenes comprimidas conlleva una pérdida de información, lo que requiere algoritmos de restauración de imágenes para la reconstrucción espectral. En HSPI, la pérdida de información ocurre al utilizar solo un subconjunto de capturas en lugar de todo el conjunto de la matriz Hadamard, lo que afecta directamente la calidad de las imágenes espectrales adquiridas. Por lo tanto, es crucial desarrollar un sistema de adquisición que optimice la extracción de información y minimice el número de capturas necesarias. Mientras que la literatura existente se centra en algoritmos computacionales y modelos de aprendizaje profundo para un sistema de captura fijo, el desafío radica en diseñar un sistema que aborde eficazmente las características únicas de cada imagen espectral para extraer la información más relevante. En consecuencia, este trabajo presenta dos modelos adaptativos de aprendizaje profundo para la selección de patrones de modulación adaptativa en el sistema de imágenes de un solo píxel basado en Hadamard para imágenes espectrales en el infrarrojo cercano. En concreto, los modelos propuestos realizan la selección adaptativa de patrones de modulación en dos modalidades. En los casos en los que se dispone de información previa, se propone la estimación de superpíxeles de imagen para mejorar la información espacial-estructural de las imágenes. Para escenarios sin información previa, se propone una estrategia de ordenación adaptativa, donde se adquiere un subconjunto fijo inicial, y un modelo de aprendizaje profundo guía la estimación del subconjunto subsiguiente. Este enfoque incluye el modelado del proceso de propagación del sistema de detección, el diseño de una arquitectura de aprendizaje profundo adaptativo, definir una función de costes y una estrategia de entrenamiento adecuadas para optimizar conjuntamente los parámetros de la red y el sistema de adquisición de imágenes, y la validación del rendimiento del modelo mediante métricas de calidad espacial y espectral en imágenes espectrales NIR. El conjunto de datos EuroSAT de la misión Sentinel-2 se emplea para la validación. El rendimiento del modelo adaptativo se analizo a partir adquisiciones realizadas en el Laboratorio Óptico HDSP. El resultado de esta investigación es un modelo de aprendizaje profundo capaz de adquirir imágenes espectrales de forma adaptativa y mejorar su calidad espacial y espectral a través de la extracción de información relevante.Item Algoritmo de clasificación para estimación de la profundidad de cavings a partir de información de recortes de perforación(Universidad Industrial de Santander, 2013) Galvis Carreño, Laura Viviana; Arguello Fuentes, Henry; Corzo Rueda, ReinelLa clasificación de imágenes naturales es un reto actual en aplicaciones de reconocimiento de patrones. Las Imágenes de rocas son un ejemplo de estas imágenes naturales y su análisis es escencial en industrias como la minera y petrolera. En el área de perforación de pozos, los avances en el procesamiento de datos han sido grandes debido al auge de las tecnologías y a la inversión en investigación que realiza esta industria. Actualmente, se realizan mediciones y monitoreos en tiempo real y se toman decisiones basadas en los resultados obtenidos de procesar e interpretar datos tomados por diferentes herramientas dentro del pozo. Un problema que se presenta comúnmente durante procesos de perforación es el colapso de las paredes del pozo. Para estimar la procedencia de los cavings cuando se presenta un derrumbe en pozo se requiere determinar su profundidad. Aunque diversas técnicas de procesamiento de imágenes han sido aplicadas en la industria petrolera, no están documentadas en la literatura la estimación de la profundidad de derrumbes o cavings en pozos petroleros. El presente trabajo buscó estimar las profundidades de los cavings a través de la clasificación del mismo en una clase que lo relaciona a determinada profundidad. Para hacerlo, se siguió un proceso de adquisición, pre-procesamiento, extracción de características y clasificación. Para esta última, se desarrollaron dos métodos, el primero, un método tradicional basado en la distancia euclideana y el segundo, un nuevo método basado en reglas heurísticas que basa su decisión en la comparación entre las características más representativas de cada clase. El desempeño en la clasificación obtenido de 91.2% permite establecer un modelo matemático para la estimación de la profundidad de cavings basado en textura, las técnicas y métodos presentados pueden ser aplicados directamente en problemas de clasificación de imágenes de rocas.Item Algoritmo de fusión de imágenes espectrales en el dominio comprimido para el aumento de la resolución espacio-espectral(Universidad Industrial de Santander, 2017) Espitia Mendoza, Oscar Javier; Arguello Fuentes, HenryLos sensores de compresión de imágenes espectrales reducen el número de píxeles muestreados mediante la combinación de información espectral codificada de una escena en proyecciones bidimensionales. Sin embargo, el muestreo de datos comprimidos con alta resolución espacial y alta resolución espectral, simultaneamente, demanda la disposición de sensores de alta resolución, que pueden ser costosos. Este trabajo introduce un modelo que permite fusionar información de diferentes sensores de compresión con alta resolución espacial, pero baja resolución espectral, con la de sensores de alta resolución espectral, pero baja resolución espacial. Basado en este modelo, el proceso de fusión de medidas comprimidas es formulado como un problema inverso; que minimiza una función objetivo definida como la suma de términos cuadráticos de fidelidad con los datos, y terminos de penalización por suavidad y baja densidad; que es resuelto siguiendo el espíritu del método de dirección alternada de multiplicadores (ADMM, de su sigla en inglés). Los parámetros de los diferentes sensores son optimizados y el principio de baja densidad es estudiado para mejorar la calidad de las reconstrucciónes. Los resultados de las simulaciones con datos reales y simulados, con diferentes sistemas de compresión de imágenes, permmiten apreciar la calidad del método de fusión propuesto.Item Algoritmo de recuperación de fase de súper resolución basada en información de escasas(Universidad Industrial de Santander, 2021) Bacca Quintero, Jorge Luis; Argüello Fuentes, Henry; Meneses Fonseca, Jaime Enrique; Bautista Rozo, Lola Xiomara; Ramírez Silva, Ana BeatrizLa recuperación de la fase de alta resolución RFAR es un problema matemático inverso presente en imágenes óptica difractivas, el cual consiste en estimar una imagen de alta resolución a partir de medidas sin fase de baja resolución. Esta tesis estudia RFAR en un sistema ´óptico de patrones difractivos codificados, el cual introduce una apertura codificada (AC) para modular la fase, permitiendo adquirir múltiples proyecciones desde el mismo objeto. Esta tesis doctoral considera dos escenarios de superresolución (i) computacional, donde las características del sensor determinan la resolución de la imagen recuperada, es decir, el tamaño de píxel del sensor es menor que el del AC, y (ii) físico, donde la resolución de la imagen esta´ determinada por la resolución de la AC, asumiendo que el tamaño de píxel de AC es menor que la del sensor. Además, la estructura espacial de las AC puede diseñarse para mejorar la calidad de la estimación por lo tanto se desarrollan diferentes estrategias de diseño. Po otro lado, la literatura en algoritmos de recuperación han demostrado que las formulaciones no convexas superan los métodos convexos, requiriendo menos mediciones y complejidad computacional para recuperar la imagen. Sin embargo, la mayoría de los métodos no convexos se basan en una función de perdida no suave y no incluyen información previa sobre la señal, como los escases. Por lo tanto, esta tesis estudia una función objetivo de mínimos cuadrados no convexos suavizada, donde se incluye algunos conocimientos previos sobre la señal, como escases, variación total y aprendizaje de los datos. Los resultados de la simulación muestran que los esquemas propuestos superan los métodos más avanzados en la reconstrucción de la imagen de alta resolución. Esta tesis también muestra que la calidad de la reconstrucción utilizando AC diseñada es superior a la de los conjuntos no diseñados.Item Algoritmo eficiente, robusto y con restricciones de similitud para el aprendizaje subespacial y la agrupación en clústeres con aplicaciones en imágenes comprimidas(Universidad Industrial de Santander, 2022-05-04) Hinojosa Montero, Carlos Alberto; Argüello Fuentes, Henry; Pertuz Arroyo, Said David; Bautista Rozo, Lola Xiomara; Galvis Carreño, Laura Viviana; Carlsson, Marcus; Niebles, Juan CarlosEl uso directo del algoritmo Sparse Subspace Clustering (SSC) en HSI presenta tres problemas principales: (1) Las HSI generalmente tienen ruido debido a su alta variabilidad de la información espectral y el ruido del sensor, lo que puede disminuir el rendimiento del agrupamiento si no se maneja adecuadamente; (2) Debido a la alta dimensionalidad de las HSI y la complejidad computacional de SSC, la mayoría de los algoritmos de agrupamiento trabajan en pequeñas regiones de interés seleccionadas; (3) dado que SSC ignora la información espacial en los HSI, su capacidad de discriminación es limitada, lo que dificulta la homogeneidad espacial de los resultados del agrupamiento. Esta tesis propone diseñar, desarrollar y simular un método eficiente, robusto y con restricciones de similitud para el agrupamiento subespacial, el cual pretende abordar estos tres problemas mencionados anteriormente. Específicamente, el capítulo 2 explora la inclusión de un término de regularización que reduce el ruido y mejora la precisión del agrupamiento. El capítulo 3 propone un algoritmo escalable que extrae características espaciales y realiza la agrupación de manera eficiente con alta precisión. El capítulo 4 adopta ideas de los dos capítulos anteriores para desarrollar un algoritmo rápido y robusto para HSI. Finalmente, los capítulos 5 y 6 proponen diferentes estrategias para realizar el agrupamiento directamente en las medidas comprimidas, evitando la reconstrucción.Item Algoritmo para caracterización de rocas por medio de imágenes de tomografía computarizada(Universidad Industrial de Santander, 2017) Barajas Solano, Crisostomo Alberto; Arguello Fuentes, HenryEl uso de Tomografía Computarizada de doble energía en muestras de roca permite visualizar su estructura interna, propiedades básicas, flujo de fluidos y fenómenos asociados al desplazamiento de crudo debido a agentes de recobro mejorado, de manera no invasiva y no destructiva, en comparación con las técnicas clásicas reportadas en la literatura. Este proyecto de investigación propone la estimación de propiedades petrofísicas estáticas y dinámicas de una muestra de roca, obtenida de un yacimiento de crudo, mediante el uso de tomografía computarizada, con el objetivo de apoyar la selección de la técnica de recobro mejorado a aplicar en una determinada formación de interés. El presente trabajo de investigación se enmarca dentro de la convocatoria de Colciencias 531-2011 Técnicas avanzadas de imágenes en medios presentado por la Universidad Industrial de Santander, en alianza con ECOPETROL S.A. 1Item Algoritmo para el aprendizaje de una red bayesiana que represente una red de regulación de la expresión genética basado en optimización por colonia de hormigas(Universidad Industrial de Santander, 2012) Cardozo Ojeda, Erwing Fabian; Arguello Fuentes, Henry; Arteaga, Herman JoseLa información biológica obtenida a partir de muestras del nivel de expresión genética, contiene gran cantidad de incertidumbre, pues implica información relativa a interacciones moleculares. Dicha información puede ser representada por medio de redes bayesianas y reconstruida a través de algoritmos heurísticos los cuales operan entre clases de equivalencia. Este documento propone un algoritmo de aprendizaje basado en búsqueda Greedy y modelos de búsqueda inspirados en hormigas competitivas. Los resultados mostraron que para redes pequeñas, el algoritmo puede obtener estructuras con menos interacciones erróneas que los algoritmos en la literatura, con mayor o igual probabilidad y con un orden de complejidad menor. Al aproximar una red biológica, los resultados para un microarreglo obtenido por muestras de pacientes con Leucemia Mieloide Aguda (LMA) aproximaron interacciones como potenciales interacciones biológicas directas, indirectas o inversas. Este último resultado es de gran importancia en la contribución de la generación de conocimiento en la investigación de genes que interactúan en relación con enfermedades tales como la AMLItem Algoritmo para la clasificación de daños en pavimento flexible de vías urbanas(Universidad Industrial de Santander, 2013) Sanabria Echeverry, Duvan Yahir; Porras Diaz, Hernán; Castañeda Pinzón, Eduardo AlbertoEl presente documento muestra el trabajo de investigación realizado en el grupo de investigación Geomática, gestión y optimización de sistemas, en el área de Ingeniería de Pavimentos aplicando técnicas del procesamiento digital de imágenes (PDI), orientada a la clasificación de daños para apoyar la automatización de los procesos relacionados con la inspección de pavimentos. La investigación ha sido enfocada principalmente en la caracterización y detección de grietas en imágenes, y en la clasificación de daños tipo agrietamiento en pavimento flexible usando redes neuronales artificiales, dado que las grietas son el principal tipo de daño en la superficie del pavimento, porque de estas se derivan los demás tipos de deterioros. En este trabajo, el proceso para la clasificación de grietas inicia con la captación de imágenes mediante los sistemas implementados. Luego a cada imagen captada se aplica el filtro de la mediana, para el suavizado de la imagen; el ajuste de contraste, para hacer uniforme el fondo de la imagen y realzar la grieta; la aplicación de la media y la desviación estándar de los niveles de grises, para segmentar la imagen; la combinación de operadores de morfología matemática, para fusionar separaciones estrechas y rellenar agujeros pequeños; la detección de grietas, usando propiedades geométricas y descriptores de forma; y la aplicación de redes neuronales, para reconocer las grietas en el pavimento asfáltico. Adicionalmente, se propone un método para cuantificar la extensión y la severidad de las grietas, y con base en la metodología Índice de Condición del Pavimento (PCI, de su sigla en inglés) se califica automáticamente el área de pavimento que abarca la imagen. Por último, se presenta una herramienta software que integra los algoritmos propuestos en cada etapa del PDI.Item Algoritmo para obtencion de vision 3d estereoscopica(Universidad Industrial de Santander, 2004) Neira Angarita, Jaime; Ruiz Diaz, FernandoEste trabajo de investigación presenta los principales métodos utilizados para obtener y reproducir imágenes y videos con ilusión tridimensional estereoscópica. Está enfocado a aplicaciones con computadores con pantallas de tipo RGB - pantallas que utilizan los tres colores primarios rojo (Red), verde (Green) y azul (Blue) para general toda la gama de colores que pueden representar -. El primer capítulo es el marco conceptual, que presenta la información fundamental acerca de los diferentes elementos que se requieren para lograr la visión 3D estereoscópica con los métodos estudiados. El segundo capítulo presenta los diferentes métodos. El tercer capítulo realiza una comparación de las ventajas y aplicaciones de cada método analizado. El cuarto capítulo describe las actividades de adquisición, procesamiento y exhibición que se deben realizar para obtener el resultado con cada uno de los diferentes métodos. Se presenta en detalle un algoritmo no lineal para creación de anaglifos (imágenes hechas de dos vistas ligeramente diferentes del mismo objeto, en colores contrastantes), que se desarrolló con base en el algoritmo lineal que se conoce como PS (PhotoShop). El quinto capítulo es una referencia de sitios en Internet donde se pueden encontrar aplicaciones, información, productos relacionados y ejemplos de estas tecnologías. El sexto capítulo presenta el programa V3DA que se desarrollo como parte de este trabajo de investigación y describe en detalle el algoritmo que se implementó en el programa. La conclusión es que se cumplió con el objetivo de favorecer una infraestructura de información, conocimiento y programas fuentes sobre visión tridimensional y realidad virtual, que sirven de fundamento para el desarrollo de una línea de investigación sobre el tema en la Universidad Industrial de Santander.Item Algoritmo Semisupervisado para el etiquetado de imágenes basado en métodos de aprendizaje profundo(Universidad Industrial de Santander, 2022-03-30) Plazas Wadynski, Miguel Alberto; Ramos-Pollán, Raúl; Martínez Carrillo, Fabio; Pedraza Ferreira, Gabriel Rodrigo; Cruz Roa, Ángel AlfonsoLas técnicas de aprendizaje semi-supervisado (SSL) exploran estrategias para el descubrimiento progresivo de la estructura oculta y latente de los datos. Para ello, estas estrategias hacen propagación de información supervisada sobre datos no etiquetados, que se utilizan posteriormente para reforzar el aprendizaje. Estos esquemas son beneficiosos en la teledetección, donde se agregan miles de imágenes nuevas todos los días y los resultados del etiquetado manual son prohibitivos. Este trabajo presenta un enfoque novedoso de aprendizaje profundo semi-supervisado basado en conjuntos que inicialmente toma un subconjunto de datos etiquetados 𝒟ℓ, que representa la estructura latente de los datos, y propaga etiquetas de forma progresiva y automática desde un conjunto de datos de expansión sin etiquetar 𝒟𝓊. La estrategia de ensamble es un conjunto de clasificadores cuyas predicciones se recopilan para derivar una predicción consolidada. Solo aquellos datos que tienen una predicción de alta confianza se consideran etiquetas recién generadas. El enfoque propuesto se validó exhaustivamente en cuatro conjuntos de datos públicos, logrando resultados apreciables en comparación con los métodos de última generación en la mayoría de las configuraciones evaluadas. Para todos los conjuntos de datos, el enfoque propuesto logró una puntuación de F1-score y un Recall de hasta un 90%, en promedio. El esquema SSL y recursivo también demostró una ganancia promedio de ~2% en la última etapa de entrenamiento en conjuntos de datos grandes.Item Algoritmo superresolución aplicado a imágenes espectrales adquiridas mediante la técnica de compressive sensing(Universidad Industrial de Santander, 2012) Rueda Chacón, Hoover Fabian; Arguello Fuentes, HenryLos sistemas ópticos para la obtención de imágenes basados en aperturas codificadas se encuentran a la vanguardia del modelado óptico debido a que permiten capturar la información espectral de una escena tridimensional en una única medicion bidimensional, a diferencia de los instrumentos ópticos basados en ranuras que deben escanear la región completa línea por línea. El sistema de adquisición de imágenes espectrales basado en apertura codificada de única captura (CASSI) es una sobresaliente arquitectura óptica, la cual sensa la informacion spectral de una escena real utilizando los conceptos fundamentales de compressive sensing (CS). El objetivo de este trabajo es transformar escenas de alta resolución en señales comprimidas capturadas por detectores de baja resolución. Super-resolución espacial y espectral son logradas a través de la solución de problemas inversos a partir de un conjunto de mediciones codificadas de baja resolución. En este proyecto, se presentan dos modelos ópticos complementarios para super-resolución espacial y espectral (SR-CASSI). Estos modelos permiten la reconstrucción de cubos de datos hyper-espectrales super-resueltos, donde el número de bandas o planos espectrales y resolución espacial son aumentadas significativamente. Los sistemas propuestos no solo ofrecen ahorros significativos en tamaño, peso y energía, sino además en costos debido a que detectores de baja resolución pueden ser utilizados. Los resultados de las simulaciones del sistema propuesto muestran un mejoramiento de mas de 4 dB en relación señal a ruido (SNR) para el modelo de super-resolución espacial y un cubo de datos cuatro veces más resuelto espectralmente. Los resultados también muestran que el SNR de los cubos de datos reconstruidos con detectores de baja resolución realizando capturas adicionales, se acercan al SNR obtenido utilizando detectores de alta resolución.Item Ambiente de Aprendizaje en el Contexto de las TICC, como Apoyo a la Formación en Filosofía en el Grado Undécimo de una Institución Educativa del Municipio de Guaitarilla (Nariño, Colombia)(Universidad Industrial de Santander, 2022-09-21) Obando Villarreal, Germán Giovanni; Buitagro Sanabria, Ana Carmenza; Barbosa Chacón, Jorge Winston; Díaz Hernandez, Andrea; Rodríguez Torres, Dénix AlbertoDesde la óptica académica, el proceso de la enseñanza-aprendizaje de la filosofía siempre ha representado un reto, puesto que a lo largo de los años este proceso se ha caracterizado con adjetivos como aburrido, complicado e improductivo. Esto ha puesto en tela de juicio la importancia de desarrollar la cátedra desde los colegios e instituciones académicas alrededor del mundo. De este modo, la propuesta investigativa gira en torno a la implementación de una estrategia educativa, que genere un ánimo proclive a la enseñanza de tan valiosa área del saber. Desde un enfoque cualitativo, apoyado en el diseño metodológico de la Investigación-Acción de Latorre, se buscó la integración de las TICC a la estrategia pedagógica, como un andamiaje para el fortalecimiento del pensamiento filosófico en estudiantes de grado undécimo de una institución educativa del municipio de Guaitarilla, Nariño. Así mismo, se tuvo en cuenta el auge de las aulas virtuales para la creación de un ambiente virtual de aprendizaje, el cual contribuyo no solo al objetivo principal, sino también a la generación de elementos propios de una educación moderna y pensada hacia futuro. Fruto de esta investigación se pudo evidenciar avances en el quehacer filosófico de los estudiantes, logrando una reflexión de sus vidas desde la filosofía. De igual manera, a través de la investigación se pudo brindar una ventana de oportunidades para el desarrollo de apuestas educativas apoyadas en las TICC.Item Ambiente lúdico de aprendizaje con TIC para la construcción de la noción de número en niños de transición(Universidad Industrial de Santander, 2021) Herrera Sabogal, Diana Marcela; Duarte Bolívar, Olga Lucía; Castro Rodríguez, Lady Marcela; López Molina, GiovanniEste proyecto está planteado desde la metodología cualitativa con enfoque de investigación – acción; se realizó con el objetivo de desarrollar la noción de número en los educandos del grado transición de una institución educativa del municipio de Floridablanca, Santander. Se fortalecieron procesos de: seriación, clasificación y correspondencia que conforman la noción de número, por medio de la creación de un ambiente de aprendizaje conformado a su vez por una secuencia didáctica que implementa el uso de la plataforma y herramienta como: Kahoot Story Jumper y actividades con material concreto. El proyecto se realizó además, con la intencionalidad de ofrecer otras alternativas lúdicas y animadas por las TIC, para que los educandos se les valoren los presaberes con los que ingresan a su educación formal en cuanto a las matemáticas. Debido a las necesidades que ocasionó la pandemia del Covid 19, las intervenciones se realizaron de manera sincrónica y con la plataforma Zoom. Fue posible determinar la organización de la secuencia didáctica animada con las herramientas Story Jumper y Kahoot, permitió que los estudiantes fortalecieran los diferentes procesos de aprendizaje para la construcción de la noción de número, resaltando la diversidad de ritmos de aprendizaje y logrando la interacción del grupo de educandos, sus familias y la docente investigadora quienes participaron y fueron mediadores y dinamizadores en cada momento del proyecto.Item Ambiente lúdico de aprendizaje con tic para la construcción de la noción de número en niños de transición(Universidad Industrial de Santander, 2021) Herrera Sabogal, Diana Marcela; Duarte Bolívar, Olga LucíaEste proyecto está planteado desde la metodología cualitativa con enfoque de investigación acción; se realizó con el objetivo de desarrollar la noción de número en los educandos del grado transición de una institución educativa del municipio de Floridablanca, Santander. Se fortalecieron procesos de: seriación, clasificación y correspondencia que conforman la noción de número, por medio de la creación de un ambiente de aprendizaje conformado a su vez por una secuencia didáctica que implementa el uso de la plataforma y herramienta como: Kahoot Story Jumper y actividades con material concreto. El proyecto se realizó además, con la intencionalidad de ofrecer otras alternativas lúdicas y animadas por las TIC, para que los educandos se les valoren los presaberes con los que ingresan a su educación formal en cuanto a las matemáticas. Debido a las necesidades que ocasionó la pandemia del Covid 19, las intervenciones se realizaron de manera sincrónica y con la plataforma Zoom. Fue posible determinar la organización de la secuencia didáctica animada con las herramientas Story Jumper y Kahoot, permitió que los estudiantes fortalecieran los diferentes procesos de aprendizaje para la construcción de la noción de número, resaltando la diversidad de ritmos de aprendizaje y logrando la interacción del grupo de educandos, sus familias y la docente investigadora quienes participaron y fueron mediadores y dinamizadores en cada momento del proyecto.Item Ambiente virtual de aprendizaje para el desarrollo del comportamiento lecto-escritor en estudiantes de educacion basica primaria(Universidad Industrial de Santander, 2004) Rodriguez Carrillo, Paola Johanna; Corredor Montagut, Martha VitaliaLa educacis una empresa bastante compleja, que da a da se transforma debido a los continuas innovaciones en las teoras de aprendizaje y la incursivos recursos (informticos y telemticos). Dentro del proceso educativo, la lectura y la escritura se constituyen en dos actividades fundamentales, ystas afectan todos los procesos de aprendizaje del estudiante. Por ello, es importante estudiar la forma como se estllevando a cabo la ensza de la lecto escritura, y proveer soluciones apoyadas en el uso de herramientas que involucren experiencias que promuevan en el estudiante, nuevas formas de relacionarse con el saber, con los otros y con el entorno; que generl, la curiosidad intelectual y la creatividad, y que le faciliten aprovechar al mximo las opciones que le ofrecen el mundo y la cultura. Es ascomo el desarrollo de este trabajo de investigacice posible ofrecer a profesores y estudiantes un conjunto de servicios telemticos que les permitan plantear actividades inmersas dentro de una estrategia dictica fruto de esta misma investigaci. Los servicios planteados junto con la propuesta dictica sugerida, son resultado de un profundo trabajo de campo centrado en tres aspectos sicos: Identificaciroblemticas Lecto Escritoras, caracterizacilos estudiantes y docentes y la definicilos recursos tecnolicos existentes en las escuelas.Item Amplificación visual de signos óculo-motores para el reconocimiento de patrones parkinsonianos(Universidad Industrial de Santander, 2020) Salazar Acosta, Isail; Martínez Carrillo, Fabio; Pertuz Arroyo, Said DavidLas alteraciones óculo-motoras constituyen un biomarcador prometedor para detectar y caracterizar la enfermedad de Parkinson (EP), inclusive en etapas pródromas. En la actualidad, sin embargo, solo se cuenta con el uso de dispositivos de seguimiento visual que entregan trayectorias globales y simplificadas para aproximar la compleja cinemática de la función óculo-motora. La adquisición de estas señales además suele requerir de protocolos intrusivos y sofisticados pasos de calibración. Este trabajo presenta un novedoso biomarcador de imagen para evaluar la EP mediante el modelamiento de los movimientos de fijación ocular, registrados con cámaras convencionales. En primer lugar, se realiza un proceso de magnificación de video basado en aceleración, cuyo fin es mejorar visualmente pequeños patrones relevantes de fijación en los videos capturados. Seguidamente se procede a extraer un conjunto de cortes espacio-temporales por video, los cuales son representados como mapas de características desde las primeras capas pre-entrenadas de redes neuronales convolucionales. A continuación, estos mapas se codifican eficientemente mediante matrices de covarianza para el entrenamiento de una máquina de soporte vectorial que lleva a cabo la clasificación de la enfermedad. Utilizando un conjunto de 130 videos en un estudio con 13 pacientes PD y 13 control, el enfoque propuesto alcanzó una precisión media de 95.4% y un área bajo la curva ROC de 0.984, siguiendo un esquema de validación cruzada por paciente excluido. El descriptor introducido captura adecuadamente en los ojos patrones de temblor conocidos en PD mostrando un desempeño sobresaliente.Item Analisis de desempeño de software de deteccion de vulnerabilidades como herramienta para implementar estudios de seguridad computacional en redes(Universidad Industrial de Santander, 2004) Barragan Ortiz, Luz Angela; Garcia Diaz, Juan CarlosLos productos evaluadores de vulnerabilidades, también conocidos como rastreadores de vulnerabilidad, son desarrollos que efectúan auditorías de seguridad sobre los sistemas en uso, buscando cuales son los puntos en que son vulnerables a cierto tipo de ataques. Estos productos tienen dos enfoques para localizar e informar las vulnerabilidades a la seguridad que encuentran. El primero, llamado rastreo o escaneo pasivo, revisa la configuración del sistema, en lo que se relaciona con los permisos de los archivos, la propiedad declarada en los archivos críticos, la configuración de los paths y busca configuraciones que la experiencia ha demostrado que generan problemas de seguridad. El segundo enfoque, un escaneo o rastreo activo, recrea una serie de ataques conocidos realizados por hackers y registra los resultados de los mismos. Algunos de estos productos también desarrollan el crackeo de los archivos de contraseñas para descubrir aquellas incorrectas o débiles que podrían ser fácilmente adivinadas por los hackers. Finalmente el producto registra sus hallazgos en pantalla o en algún otra forma de informe. Los productos evaluadores de vulnerabilidades son una parte valiosa de cualquier programa de administración de la seguridad de los sistemas en cualquier organización. Le permite a los responsables delimitar o establecer una línea de seguridad en todo el sistema. Permiten llevar a cabo auditorías periódicas de seguridad para determinar la salud del sistema en un momento preciso. Muchos proveen la capacidad de desarrollar análisis diferenciados, archivando los resultados de los rastreos, para luego compararlos con los siguientes realizados sobre los archivos e informando cuando aparece una nueva vulnerabilidad o un cambio inesperado. El análisis de vulnerabilidades trabaja en conjunto con los antivirus, firewall y sistemas de detección de intrusos, formando así los cuatro pilares de la seguridad en redes. Además los sistemas corporativos requieren otras herramientas de gestión como las políticas de seguridad y el plan de contingencia, para mantener su seguridad informática.Item Análisis de sistemas embebidos hpc usando manejadores de paquetes(Universidad Industrial de Santander, 2020) Gómez Hernández, Carlos Eduardo; Barrios Hernandez, Carlos Jaime; Richard, OlivierEl proyecto consiste en analizar las capacidades computaciones y energéticas para computación de alto rendimiento (HPC por sus siglas en inglés) de ciertos sistemas embebidos usando una herramienta de gestión de aplicaciones de tipo manejadores de paquetes. Para lograr este objetivo, se escogió un tipo de sistemas embebidos y una clase de Manejador de Paquetes. Usando una serie de algoritmos denominados benchmarks, se logra obtener resultados de rendimiento computacional del sistema. Finalmente, una vez obtenidos estos resultados se usan estos valores para obtener el consumo energético de la infraestructura. Principalmente este proyecto se divide en dos partes: uso de software (por los manejadores de paquetes) y uso de hardware (por los sistemas embebidos). Por esta razón, se exploran por separado ambas partes, estudiando sus componentes y algunos elementos pertenecientes a esa parte y además se mencionan algunos proyectos con una configuración similar para mostrar un precedente de lo que puede hacer este tipo de infraestructura. En la etapa final, se crea un modelo de una infraestructura, se implementa, se agregan las herramientas necesarias y con el uso de un sistema de algoritmos de prueba computacional denominados benchmark, se observa su rendimiento computacional. Sin embargo, las pruebas deben también indicar consumo energético, por lo que basados en un estudio previo, se usan esos resultados adaptados al proyecto para aproximar el valor del consumo energético en nuestro sistema. Todo lo anterior se gráfica y se analiza el rendimiento e impacto de los manejadores de paquetes dentro de los sistemas embebidos. 1Item Análisis y diseño de un sistema de telecitologia que apoye el programa de detección temprana de cáncer cervicouterino en Colombia(Universidad Industrial de Santander, 2012) Garces Rodríguez, Lina Maria; Bautista Rozo, Lola Xiomara; Álvarez Ojeda, Olga MercedesLa baja eficiencia de la tamización por citología de cérvix uterino o prueba de Papanicolaou ha conllevado, pese a los esfuerzos del programa de detección temprana de cáncer cérvicouterino, a que la incidencia de éste cáncer en Colombia sea muy alta. Uno de los factores que promueve este problema de salud, es la falta de sistemas de información que le den apoyo al proceso de diagnóstico basado en citología cérvicouterina. Partiendo del hecho de que implantar un sistema sin conocer los requerimientos de los stakeholders involucrados en el proceso, puede llevar al deterioro del sistema en su conjunto y producir resultados contrarios a los esperados, en este documento se presenta la Arquitectura Software de un Sistema de Telecitología que sigue el Proceso iterativo de Diseño de Arquitectura de tres pasos; de igual manera se exponen los requerimientos funcionales y de atributos de calidad, como también la documentación de las decisiones, las cuales se reflejan en vistas arquitect ónicas, que a su vez detallan el rationale obtenido del análisis; Así mismo, se muestra la validación del diseño mediante pruebas de escenarios y prototipos. Como resultado de la validación de la Arquitectura Software se puede concluir que es posible concebir un sistema de telecitología que brinde apoyo al programa de detección temprana de cáncer cérvicouterino en Colombia.