Maestría en Ingeniería de Sistemas e Informática
Permanent URI for this collection
Browse
Browsing Maestría en Ingeniería de Sistemas e Informática by Title
Now showing 1 - 20 of 152
Results Per Page
Sort Options
Item Aceleración energéticamente eficiente de aplicaciones científicas de gran escala sobre arquitecturas heterogéneas(Universidad Industrial de Santander, 2017) Garcia Henao, John Anderson; Barrios Hernandez, Carlos Jaime; Navaux, Philippe Olivier AlexandreLa computaci´on de alto rendimiento es hoy una herramienta fundamental para la investigaci´on cient´ıfica y la competitividad industrial. Por lo que requiere construir grandes sistemas computacionales con mayor rendimiento, los cuales ven limitada su capacidad por el consumo energ´etico y la subutilizaci´on de recursos computacionales en aplicaciones que realizan una mala distribuci´on de tareas, es as´ı como maximizar el rendimiento por watt y realizar un buen mapeo de tareas es uno de los principales retos para construir la siguiente generaci´on de sistemas exascale. Este trabajo de investigaci´on presenta una comparaci´on de consumo de energ´ıa en tiempo de ejecuci´on, entre arquitecturas heterog´eneas tipo CPU-GPU con diferentes frecuencias de reloj y n´umero de CUDA@cores dentro de un mismo chip, al usar StarPU, para portabilizar y balancear la carga de trabajo de aplicaciones cient´ıficas. Como caso de estudio se seleccion´o Ondes3D, una simulaci´on de la propagaci´on de ondas s´ısmicas para analizar fuertes movimientos en superficies de la Tierra. Adicionalmente, se seleccion´o el LINPACK Benchmark (HPL), para colectar datos del problema de la subutilizaci´on de recursos computacionales sobre arquitecturas heterog´eneas. Se construy´o enerGyPU un monitor de rendimiento y consumo de potencia, para evaluar y caracterizar los factores computacionales que regulan la eficiencia energ´etica sobre nodos heterog´eneos con multiples GPU. Asimismo, se dise˜no un esquema integrado llamado Aceleraci´on Energ´eticamente Eficiente (AEE), el cual utiliza: frameworks de balanceo de carga (ej. StarPU), para el mapeo de tareas sobre los recursos computacionales; seguidamente, usa enerGyPU para la captura de m´etricas de rendimiento computacional y consumo de potencia, para as´ı, caracterizar la aplicaci´on y la arquitectura computacional; por ultimo utiliza el sistema de predicci´on AEE, para obtener la combinaci´on de recursos computacionales que maximizan la eficiencia energ´etica en aplicaciones que se ejecuten sobre arquitecturas heterog´eneas tipo CPU-GPU.Item Adquisición adaptativa de imágenes espectrales comprimidas en el infrarrojo cercano basada en el sistema de captura de único píxel mediante aprendizaje profundo(Universidad Industrial de Santander, 2024-11-12) Monroy Chaparro, Brayan Esneider; Bacca Quintero, Jorge Luis; Argüello Fuentes, Henry; Díaz Díaz, Nelson Eduardo; Giraldo, Jhony H.La adquisición de imagenes espectrales comprimidas (CSI, por sus siglas en inglés) son una tecnología eficiente utilizada para obtener información espacial y espectral. A diferencia de las técnicas convencionales de escaneo espectral, CSI captura solo unas pocas imágenes instantáneas, evitando largos tiempos de adquisición y sensores especializados costosos. Este enfoque tiene aplicaciones en la agricultura de precisión y en la teledetección. En el rango del infrarrojo cercano (NIR), más allá del espectro visible, CSI es particularmente valiosa ya que no se dispone de sensores con alta resolución espacial y espectral. Específicamente, la técnica de imagen de un solo píxel basada en Hadamard (HSPI) presenta sistemas de adquisición rentables para capturar imágenes NIR de alta calidad. Sin embargo, la captura de imágenes comprimidas conlleva una pérdida de información, lo que requiere algoritmos de restauración de imágenes para la reconstrucción espectral. En HSPI, la pérdida de información ocurre al utilizar solo un subconjunto de capturas en lugar de todo el conjunto de la matriz Hadamard, lo que afecta directamente la calidad de las imágenes espectrales adquiridas. Por lo tanto, es crucial desarrollar un sistema de adquisición que optimice la extracción de información y minimice el número de capturas necesarias. Mientras que la literatura existente se centra en algoritmos computacionales y modelos de aprendizaje profundo para un sistema de captura fijo, el desafío radica en diseñar un sistema que aborde eficazmente las características únicas de cada imagen espectral para extraer la información más relevante. En consecuencia, este trabajo presenta dos modelos adaptativos de aprendizaje profundo para la selección de patrones de modulación adaptativa en el sistema de imágenes de un solo píxel basado en Hadamard para imágenes espectrales en el infrarrojo cercano. En concreto, los modelos propuestos realizan la selección adaptativa de patrones de modulación en dos modalidades. En los casos en los que se dispone de información previa, se propone la estimación de superpíxeles de imagen para mejorar la información espacial-estructural de las imágenes. Para escenarios sin información previa, se propone una estrategia de ordenación adaptativa, donde se adquiere un subconjunto fijo inicial, y un modelo de aprendizaje profundo guía la estimación del subconjunto subsiguiente. Este enfoque incluye el modelado del proceso de propagación del sistema de detección, el diseño de una arquitectura de aprendizaje profundo adaptativo, definir una función de costes y una estrategia de entrenamiento adecuadas para optimizar conjuntamente los parámetros de la red y el sistema de adquisición de imágenes, y la validación del rendimiento del modelo mediante métricas de calidad espacial y espectral en imágenes espectrales NIR. El conjunto de datos EuroSAT de la misión Sentinel-2 se emplea para la validación. El rendimiento del modelo adaptativo se analizo a partir adquisiciones realizadas en el Laboratorio Óptico HDSP. El resultado de esta investigación es un modelo de aprendizaje profundo capaz de adquirir imágenes espectrales de forma adaptativa y mejorar su calidad espacial y espectral a través de la extracción de información relevante.Item Algoritmo de clasificación para estimación de la profundidad de cavings a partir de información de recortes de perforación(Universidad Industrial de Santander, 2013) Galvis Carreño, Laura Viviana; Arguello Fuentes, Henry; Corzo Rueda, ReinelLa clasificación de imágenes naturales es un reto actual en aplicaciones de reconocimiento de patrones. Las Imágenes de rocas son un ejemplo de estas imágenes naturales y su análisis es escencial en industrias como la minera y petrolera. En el área de perforación de pozos, los avances en el procesamiento de datos han sido grandes debido al auge de las tecnologías y a la inversión en investigación que realiza esta industria. Actualmente, se realizan mediciones y monitoreos en tiempo real y se toman decisiones basadas en los resultados obtenidos de procesar e interpretar datos tomados por diferentes herramientas dentro del pozo. Un problema que se presenta comúnmente durante procesos de perforación es el colapso de las paredes del pozo. Para estimar la procedencia de los cavings cuando se presenta un derrumbe en pozo se requiere determinar su profundidad. Aunque diversas técnicas de procesamiento de imágenes han sido aplicadas en la industria petrolera, no están documentadas en la literatura la estimación de la profundidad de derrumbes o cavings en pozos petroleros. El presente trabajo buscó estimar las profundidades de los cavings a través de la clasificación del mismo en una clase que lo relaciona a determinada profundidad. Para hacerlo, se siguió un proceso de adquisición, pre-procesamiento, extracción de características y clasificación. Para esta última, se desarrollaron dos métodos, el primero, un método tradicional basado en la distancia euclideana y el segundo, un nuevo método basado en reglas heurísticas que basa su decisión en la comparación entre las características más representativas de cada clase. El desempeño en la clasificación obtenido de 91.2% permite establecer un modelo matemático para la estimación de la profundidad de cavings basado en textura, las técnicas y métodos presentados pueden ser aplicados directamente en problemas de clasificación de imágenes de rocas.Item Algoritmo de fusión de imágenes espectrales en el dominio comprimido para el aumento de la resolución espacio-espectral(Universidad Industrial de Santander, 2017) Espitia Mendoza, Oscar Javier; Arguello Fuentes, HenryLos sensores de compresión de imágenes espectrales reducen el número de píxeles muestreados mediante la combinación de información espectral codificada de una escena en proyecciones bidimensionales. Sin embargo, el muestreo de datos comprimidos con alta resolución espacial y alta resolución espectral, simultaneamente, demanda la disposición de sensores de alta resolución, que pueden ser costosos. Este trabajo introduce un modelo que permite fusionar información de diferentes sensores de compresión con alta resolución espacial, pero baja resolución espectral, con la de sensores de alta resolución espectral, pero baja resolución espacial. Basado en este modelo, el proceso de fusión de medidas comprimidas es formulado como un problema inverso; que minimiza una función objetivo definida como la suma de términos cuadráticos de fidelidad con los datos, y terminos de penalización por suavidad y baja densidad; que es resuelto siguiendo el espíritu del método de dirección alternada de multiplicadores (ADMM, de su sigla en inglés). Los parámetros de los diferentes sensores son optimizados y el principio de baja densidad es estudiado para mejorar la calidad de las reconstrucciónes. Los resultados de las simulaciones con datos reales y simulados, con diferentes sistemas de compresión de imágenes, permmiten apreciar la calidad del método de fusión propuesto.Item Algoritmo para caracterización de rocas por medio de imágenes de tomografía computarizada(Universidad Industrial de Santander, 2017) Barajas Solano, Crisostomo Alberto; Arguello Fuentes, HenryEl uso de Tomografía Computarizada de doble energía en muestras de roca permite visualizar su estructura interna, propiedades básicas, flujo de fluidos y fenómenos asociados al desplazamiento de crudo debido a agentes de recobro mejorado, de manera no invasiva y no destructiva, en comparación con las técnicas clásicas reportadas en la literatura. Este proyecto de investigación propone la estimación de propiedades petrofísicas estáticas y dinámicas de una muestra de roca, obtenida de un yacimiento de crudo, mediante el uso de tomografía computarizada, con el objetivo de apoyar la selección de la técnica de recobro mejorado a aplicar en una determinada formación de interés. El presente trabajo de investigación se enmarca dentro de la convocatoria de Colciencias 531-2011 Técnicas avanzadas de imágenes en medios presentado por la Universidad Industrial de Santander, en alianza con ECOPETROL S.A. 1Item Algoritmo para el aprendizaje de una red bayesiana que represente una red de regulación de la expresión genética basado en optimización por colonia de hormigas(Universidad Industrial de Santander, 2012) Cardozo Ojeda, Erwing Fabian; Arguello Fuentes, Henry; Arteaga, Herman JoseLa información biológica obtenida a partir de muestras del nivel de expresión genética, contiene gran cantidad de incertidumbre, pues implica información relativa a interacciones moleculares. Dicha información puede ser representada por medio de redes bayesianas y reconstruida a través de algoritmos heurísticos los cuales operan entre clases de equivalencia. Este documento propone un algoritmo de aprendizaje basado en búsqueda Greedy y modelos de búsqueda inspirados en hormigas competitivas. Los resultados mostraron que para redes pequeñas, el algoritmo puede obtener estructuras con menos interacciones erróneas que los algoritmos en la literatura, con mayor o igual probabilidad y con un orden de complejidad menor. Al aproximar una red biológica, los resultados para un microarreglo obtenido por muestras de pacientes con Leucemia Mieloide Aguda (LMA) aproximaron interacciones como potenciales interacciones biológicas directas, indirectas o inversas. Este último resultado es de gran importancia en la contribución de la generación de conocimiento en la investigación de genes que interactúan en relación con enfermedades tales como la AMLItem Algoritmo para la clasificación de daños en pavimento flexible de vías urbanas(Universidad Industrial de Santander, 2013) Sanabria Echeverry, Duvan Yahir; Porras Diaz, Hernán; Castañeda Pinzón, Eduardo AlbertoEl presente documento muestra el trabajo de investigación realizado en el grupo de investigación Geomática, gestión y optimización de sistemas, en el área de Ingeniería de Pavimentos aplicando técnicas del procesamiento digital de imágenes (PDI), orientada a la clasificación de daños para apoyar la automatización de los procesos relacionados con la inspección de pavimentos. La investigación ha sido enfocada principalmente en la caracterización y detección de grietas en imágenes, y en la clasificación de daños tipo agrietamiento en pavimento flexible usando redes neuronales artificiales, dado que las grietas son el principal tipo de daño en la superficie del pavimento, porque de estas se derivan los demás tipos de deterioros. En este trabajo, el proceso para la clasificación de grietas inicia con la captación de imágenes mediante los sistemas implementados. Luego a cada imagen captada se aplica el filtro de la mediana, para el suavizado de la imagen; el ajuste de contraste, para hacer uniforme el fondo de la imagen y realzar la grieta; la aplicación de la media y la desviación estándar de los niveles de grises, para segmentar la imagen; la combinación de operadores de morfología matemática, para fusionar separaciones estrechas y rellenar agujeros pequeños; la detección de grietas, usando propiedades geométricas y descriptores de forma; y la aplicación de redes neuronales, para reconocer las grietas en el pavimento asfáltico. Adicionalmente, se propone un método para cuantificar la extensión y la severidad de las grietas, y con base en la metodología Índice de Condición del Pavimento (PCI, de su sigla en inglés) se califica automáticamente el área de pavimento que abarca la imagen. Por último, se presenta una herramienta software que integra los algoritmos propuestos en cada etapa del PDI.Item Algoritmo para obtencion de vision 3d estereoscopica(Universidad Industrial de Santander, 2004) Neira Angarita, Jaime; Ruiz Diaz, FernandoEste trabajo de investigación presenta los principales métodos utilizados para obtener y reproducir imágenes y videos con ilusión tridimensional estereoscópica. Está enfocado a aplicaciones con computadores con pantallas de tipo RGB - pantallas que utilizan los tres colores primarios rojo (Red), verde (Green) y azul (Blue) para general toda la gama de colores que pueden representar -. El primer capítulo es el marco conceptual, que presenta la información fundamental acerca de los diferentes elementos que se requieren para lograr la visión 3D estereoscópica con los métodos estudiados. El segundo capítulo presenta los diferentes métodos. El tercer capítulo realiza una comparación de las ventajas y aplicaciones de cada método analizado. El cuarto capítulo describe las actividades de adquisición, procesamiento y exhibición que se deben realizar para obtener el resultado con cada uno de los diferentes métodos. Se presenta en detalle un algoritmo no lineal para creación de anaglifos (imágenes hechas de dos vistas ligeramente diferentes del mismo objeto, en colores contrastantes), que se desarrolló con base en el algoritmo lineal que se conoce como PS (PhotoShop). El quinto capítulo es una referencia de sitios en Internet donde se pueden encontrar aplicaciones, información, productos relacionados y ejemplos de estas tecnologías. El sexto capítulo presenta el programa V3DA que se desarrollo como parte de este trabajo de investigación y describe en detalle el algoritmo que se implementó en el programa. La conclusión es que se cumplió con el objetivo de favorecer una infraestructura de información, conocimiento y programas fuentes sobre visión tridimensional y realidad virtual, que sirven de fundamento para el desarrollo de una línea de investigación sobre el tema en la Universidad Industrial de Santander.Item Algoritmo Semisupervisado para el etiquetado de imágenes basado en métodos de aprendizaje profundo(Universidad Industrial de Santander, 2022-03-30) Plazas Wadynski, Miguel Alberto; Ramos-Pollán, Raúl; Martínez Carrillo, Fabio; Pedraza Ferreira, Gabriel Rodrigo; Cruz Roa, Ángel AlfonsoLas técnicas de aprendizaje semi-supervisado (SSL) exploran estrategias para el descubrimiento progresivo de la estructura oculta y latente de los datos. Para ello, estas estrategias hacen propagación de información supervisada sobre datos no etiquetados, que se utilizan posteriormente para reforzar el aprendizaje. Estos esquemas son beneficiosos en la teledetección, donde se agregan miles de imágenes nuevas todos los días y los resultados del etiquetado manual son prohibitivos. Este trabajo presenta un enfoque novedoso de aprendizaje profundo semi-supervisado basado en conjuntos que inicialmente toma un subconjunto de datos etiquetados 𝒟ℓ, que representa la estructura latente de los datos, y propaga etiquetas de forma progresiva y automática desde un conjunto de datos de expansión sin etiquetar 𝒟𝓊. La estrategia de ensamble es un conjunto de clasificadores cuyas predicciones se recopilan para derivar una predicción consolidada. Solo aquellos datos que tienen una predicción de alta confianza se consideran etiquetas recién generadas. El enfoque propuesto se validó exhaustivamente en cuatro conjuntos de datos públicos, logrando resultados apreciables en comparación con los métodos de última generación en la mayoría de las configuraciones evaluadas. Para todos los conjuntos de datos, el enfoque propuesto logró una puntuación de F1-score y un Recall de hasta un 90%, en promedio. El esquema SSL y recursivo también demostró una ganancia promedio de ~2% en la última etapa de entrenamiento en conjuntos de datos grandes.Item Algoritmo superresolución aplicado a imágenes espectrales adquiridas mediante la técnica de compressive sensing(Universidad Industrial de Santander, 2012) Rueda Chacón, Hoover Fabian; Arguello Fuentes, HenryLos sistemas ópticos para la obtención de imágenes basados en aperturas codificadas se encuentran a la vanguardia del modelado óptico debido a que permiten capturar la información espectral de una escena tridimensional en una única medicion bidimensional, a diferencia de los instrumentos ópticos basados en ranuras que deben escanear la región completa línea por línea. El sistema de adquisición de imágenes espectrales basado en apertura codificada de única captura (CASSI) es una sobresaliente arquitectura óptica, la cual sensa la informacion spectral de una escena real utilizando los conceptos fundamentales de compressive sensing (CS). El objetivo de este trabajo es transformar escenas de alta resolución en señales comprimidas capturadas por detectores de baja resolución. Super-resolución espacial y espectral son logradas a través de la solución de problemas inversos a partir de un conjunto de mediciones codificadas de baja resolución. En este proyecto, se presentan dos modelos ópticos complementarios para super-resolución espacial y espectral (SR-CASSI). Estos modelos permiten la reconstrucción de cubos de datos hyper-espectrales super-resueltos, donde el número de bandas o planos espectrales y resolución espacial son aumentadas significativamente. Los sistemas propuestos no solo ofrecen ahorros significativos en tamaño, peso y energía, sino además en costos debido a que detectores de baja resolución pueden ser utilizados. Los resultados de las simulaciones del sistema propuesto muestran un mejoramiento de mas de 4 dB en relación señal a ruido (SNR) para el modelo de super-resolución espacial y un cubo de datos cuatro veces más resuelto espectralmente. Los resultados también muestran que el SNR de los cubos de datos reconstruidos con detectores de baja resolución realizando capturas adicionales, se acercan al SNR obtenido utilizando detectores de alta resolución.Item Ambiente virtual de aprendizaje para el desarrollo del comportamiento lecto-escritor en estudiantes de educacion basica primaria(Universidad Industrial de Santander, 2004) Rodriguez Carrillo, Paola Johanna; Corredor Montagut, Martha VitaliaLa educacis una empresa bastante compleja, que da a da se transforma debido a los continuas innovaciones en las teoras de aprendizaje y la incursivos recursos (informticos y telemticos). Dentro del proceso educativo, la lectura y la escritura se constituyen en dos actividades fundamentales, ystas afectan todos los procesos de aprendizaje del estudiante. Por ello, es importante estudiar la forma como se estllevando a cabo la ensza de la lecto escritura, y proveer soluciones apoyadas en el uso de herramientas que involucren experiencias que promuevan en el estudiante, nuevas formas de relacionarse con el saber, con los otros y con el entorno; que generl, la curiosidad intelectual y la creatividad, y que le faciliten aprovechar al mximo las opciones que le ofrecen el mundo y la cultura. Es ascomo el desarrollo de este trabajo de investigacice posible ofrecer a profesores y estudiantes un conjunto de servicios telemticos que les permitan plantear actividades inmersas dentro de una estrategia dictica fruto de esta misma investigaci. Los servicios planteados junto con la propuesta dictica sugerida, son resultado de un profundo trabajo de campo centrado en tres aspectos sicos: Identificaciroblemticas Lecto Escritoras, caracterizacilos estudiantes y docentes y la definicilos recursos tecnolicos existentes en las escuelas.Item Amplificación visual de signos óculo-motores para el reconocimiento de patrones parkinsonianos(Universidad Industrial de Santander, 2020) Salazar Acosta, Isail; Martínez Carrillo, Fabio; Pertuz Arroyo, Said DavidLas alteraciones óculo-motoras constituyen un biomarcador prometedor para detectar y caracterizar la enfermedad de Parkinson (EP), inclusive en etapas pródromas. En la actualidad, sin embargo, solo se cuenta con el uso de dispositivos de seguimiento visual que entregan trayectorias globales y simplificadas para aproximar la compleja cinemática de la función óculo-motora. La adquisición de estas señales además suele requerir de protocolos intrusivos y sofisticados pasos de calibración. Este trabajo presenta un novedoso biomarcador de imagen para evaluar la EP mediante el modelamiento de los movimientos de fijación ocular, registrados con cámaras convencionales. En primer lugar, se realiza un proceso de magnificación de video basado en aceleración, cuyo fin es mejorar visualmente pequeños patrones relevantes de fijación en los videos capturados. Seguidamente se procede a extraer un conjunto de cortes espacio-temporales por video, los cuales son representados como mapas de características desde las primeras capas pre-entrenadas de redes neuronales convolucionales. A continuación, estos mapas se codifican eficientemente mediante matrices de covarianza para el entrenamiento de una máquina de soporte vectorial que lleva a cabo la clasificación de la enfermedad. Utilizando un conjunto de 130 videos en un estudio con 13 pacientes PD y 13 control, el enfoque propuesto alcanzó una precisión media de 95.4% y un área bajo la curva ROC de 0.984, siguiendo un esquema de validación cruzada por paciente excluido. El descriptor introducido captura adecuadamente en los ojos patrones de temblor conocidos en PD mostrando un desempeño sobresaliente.Item Analisis de desempeño de software de deteccion de vulnerabilidades como herramienta para implementar estudios de seguridad computacional en redes(Universidad Industrial de Santander, 2004) Barragan Ortiz, Luz Angela; Garcia Diaz, Juan CarlosLos productos evaluadores de vulnerabilidades, también conocidos como rastreadores de vulnerabilidad, son desarrollos que efectúan auditorías de seguridad sobre los sistemas en uso, buscando cuales son los puntos en que son vulnerables a cierto tipo de ataques. Estos productos tienen dos enfoques para localizar e informar las vulnerabilidades a la seguridad que encuentran. El primero, llamado rastreo o escaneo pasivo, revisa la configuración del sistema, en lo que se relaciona con los permisos de los archivos, la propiedad declarada en los archivos críticos, la configuración de los paths y busca configuraciones que la experiencia ha demostrado que generan problemas de seguridad. El segundo enfoque, un escaneo o rastreo activo, recrea una serie de ataques conocidos realizados por hackers y registra los resultados de los mismos. Algunos de estos productos también desarrollan el crackeo de los archivos de contraseñas para descubrir aquellas incorrectas o débiles que podrían ser fácilmente adivinadas por los hackers. Finalmente el producto registra sus hallazgos en pantalla o en algún otra forma de informe. Los productos evaluadores de vulnerabilidades son una parte valiosa de cualquier programa de administración de la seguridad de los sistemas en cualquier organización. Le permite a los responsables delimitar o establecer una línea de seguridad en todo el sistema. Permiten llevar a cabo auditorías periódicas de seguridad para determinar la salud del sistema en un momento preciso. Muchos proveen la capacidad de desarrollar análisis diferenciados, archivando los resultados de los rastreos, para luego compararlos con los siguientes realizados sobre los archivos e informando cuando aparece una nueva vulnerabilidad o un cambio inesperado. El análisis de vulnerabilidades trabaja en conjunto con los antivirus, firewall y sistemas de detección de intrusos, formando así los cuatro pilares de la seguridad en redes. Además los sistemas corporativos requieren otras herramientas de gestión como las políticas de seguridad y el plan de contingencia, para mantener su seguridad informática.Item Análisis de sistemas embebidos hpc usando manejadores de paquetes(Universidad Industrial de Santander, 2020) Gómez Hernández, Carlos Eduardo; Barrios Hernandez, Carlos Jaime; Richard, OlivierEl proyecto consiste en analizar las capacidades computaciones y energéticas para computación de alto rendimiento (HPC por sus siglas en inglés) de ciertos sistemas embebidos usando una herramienta de gestión de aplicaciones de tipo manejadores de paquetes. Para lograr este objetivo, se escogió un tipo de sistemas embebidos y una clase de Manejador de Paquetes. Usando una serie de algoritmos denominados benchmarks, se logra obtener resultados de rendimiento computacional del sistema. Finalmente, una vez obtenidos estos resultados se usan estos valores para obtener el consumo energético de la infraestructura. Principalmente este proyecto se divide en dos partes: uso de software (por los manejadores de paquetes) y uso de hardware (por los sistemas embebidos). Por esta razón, se exploran por separado ambas partes, estudiando sus componentes y algunos elementos pertenecientes a esa parte y además se mencionan algunos proyectos con una configuración similar para mostrar un precedente de lo que puede hacer este tipo de infraestructura. En la etapa final, se crea un modelo de una infraestructura, se implementa, se agregan las herramientas necesarias y con el uso de un sistema de algoritmos de prueba computacional denominados benchmark, se observa su rendimiento computacional. Sin embargo, las pruebas deben también indicar consumo energético, por lo que basados en un estudio previo, se usan esos resultados adaptados al proyecto para aproximar el valor del consumo energético en nuestro sistema. Todo lo anterior se gráfica y se analiza el rendimiento e impacto de los manejadores de paquetes dentro de los sistemas embebidos. 1Item Análisis y diseño de un sistema de telecitologia que apoye el programa de detección temprana de cáncer cervicouterino en Colombia(Universidad Industrial de Santander, 2012) Garces Rodríguez, Lina Maria; Bautista Rozo, Lola Xiomara; Álvarez Ojeda, Olga MercedesLa baja eficiencia de la tamización por citología de cérvix uterino o prueba de Papanicolaou ha conllevado, pese a los esfuerzos del programa de detección temprana de cáncer cérvicouterino, a que la incidencia de éste cáncer en Colombia sea muy alta. Uno de los factores que promueve este problema de salud, es la falta de sistemas de información que le den apoyo al proceso de diagnóstico basado en citología cérvicouterina. Partiendo del hecho de que implantar un sistema sin conocer los requerimientos de los stakeholders involucrados en el proceso, puede llevar al deterioro del sistema en su conjunto y producir resultados contrarios a los esperados, en este documento se presenta la Arquitectura Software de un Sistema de Telecitología que sigue el Proceso iterativo de Diseño de Arquitectura de tres pasos; de igual manera se exponen los requerimientos funcionales y de atributos de calidad, como también la documentación de las decisiones, las cuales se reflejan en vistas arquitect ónicas, que a su vez detallan el rationale obtenido del análisis; Así mismo, se muestra la validación del diseño mediante pruebas de escenarios y prototipos. Como resultado de la validación de la Arquitectura Software se puede concluir que es posible concebir un sistema de telecitología que brinde apoyo al programa de detección temprana de cáncer cérvicouterino en Colombia.Item Aplicación de la web semántica para la vigilancia tecnológica "onto vt" una ontología para la vigilancia tecnológica(Universidad Industrial de Santander, 2013) Rico Rangel, Sergio Henry; Castillo Castelblanco, Sergio FernandoLa Vigilancia Tecnológica es el proceso mediante el cual las organizaciones toman información del entorno, le agregan valor y la transforman en conocimiento para la planeación tecnológica y la toma de decisiones con menor riesgo e incertidumbre. Los insumos para la Vigilancia Tecnológica son en su mayoría de libre acceso a través de Internet (artículos científicos, bases de datos de patentes, sitios web, tesis doctorales entre otros), el volumen de información con el que trabajan las organizaciones excede sus capacidades de análisis y dificulta la puesta en valor de la información. En el desarrolló del presente trabajo de investigación se propone la aplicación de tecnologías de la Web Semántica para la gestión de la información en el proceso de Vigilancia Tecnológica. Específicamente se propone OntoVT, una ontología para la representación de la información asociada al proceso de vigilancia tecnológica. El trabajo fue desarrollado en dos fases, primero se realizó una describió la vigilancia tecnológica como proceso organizacional y posteriormente se modelo OntoVT siguiendo las tareas propuestas en la metodología Methontology. Methontology es una de las metodologías más completas para la construcción de ontologías, el ciclo de vida está inspirado en la ingeniería del software y se hace uso de prototipos en un proceso iterativo.Item Aplicación de software para la clasificación de señales electrocardiográficas de infarto agudo de miocardio implementando la técnica medida de disimilaridad basada en compresión(Universidad Industrial de Santander, 2012) Amaris González, Marcos; Martínez Abaunza, Víctor Eduardo; Guillen Rondón, Pablo EmilioEn el presente documento se muestra la continuación del trabajo realizado por el Grupo de Investigación en Ingeniería Biomédica, en la línea de investigación de tratamiento de señales electrofisiológicas, orientadas a la contrucción de aplicaciones para la detección de enfermedades cardíacas en este caso el Infarto Agudo de Miocardio. Esta investigación fue enfocada al uso de dos técnicas de minería de datos, Compression-based Dissimilariy Measure y Symbolic Agreggate AproXimation, para la clasificación de la Variabilidad de la Frecuencia Cardiaca de señales electrocardiográficas digitales por medio de máquinas de aprendizaje no supervisadas. En este proceso de clasificación de señales electrocardiográficas se realiza un filtrado, la respectiva caracterización de las ondas y se extrae la VFC utilizando herramientas de análisis Wavelet, esto es llamado preprocesamiento; posteriormente se utilizan técnicas de minería de datos para una transformación y clasificación de la VFC de cada señal electrocardiográfica; por la anterior razón se mencionan los resultados de esta investigación como una metodología de descubrimiento de conocimiento en base de datos. Se presenta una fundamentación teórica de las técnicas de medidas de similaridad basadas en compresión, la base teórica de estas técnicas es la complejidad de Kolmogorov, en este documento se definen conceptos importantes de esta complejidad y ciertas analogías con la teoría de la información de Shannon, también se muestran algunas aplicaciones en máquinas de aprendizajes para la clasificación entre series temporales, imágenes, ADN, video, audio, ente otros. Se presenta una teoría básica del filtrado y análisis Wavelet en señales electrocardiográficas sobre el ambiente numérico R, todos los algoritmos y una interfaz gráfica fueron realizados en el entorno de software para estadística y computación R el cual satisfizo todas las necesidades, y brinda la posibilidad de desarrollar facilmente algoritmos paralelos, debido al modelos de datos por medio de listas.Item Aprendizaje organizacional con si/ti ¿especulación o posibilidad?(Universidad Industrial de Santander, 2007) Galvis Lista, Ernesto Amaru; Gomez Florez, Luis CarlosEste trabajo presenta una propuesta que integra el desarrollo de sistemas de información con la idea de organización que aprende. El propósito de la investigación tiene varios elementos. Primero, la propuesta contribuye a la apropiación de las ideas del pensamiento sistémico, principalmente el pensamiento de sistemas blandos, como fundamento esencial para el trabajo en sistemas y tecnología de información. Segundo, los resultados obtenidos en los escenarios de intervención (organizaciones reales) afianzan la idea sobre el potencial que poseen los sistemas y la tecnología de información para generar nuevas formas de organización. Y, tercero, el trabajo como un todo puede tomarse como un caso de estudio respecto de la utilización del enfoque de investigación Œ acción en el campo de Sistemas y Tecnología de Información (SI/TI). En el desarrollo de la propuesta se pueden identificar tres momentos. Un primer momento centrado en la construcción de un marco de ideas basado en los planteamientos existentes en la sabiduría predominante en el campo de SI/TI y su relación con la idea de organización que aprende; y la reflexión sobre la acción tomada en dos organizaciones, una del sector industrial y otra del sector de servicios públicos. Un segundo momento centrado en el enriquecimiento del marco de ideas incorporando: planteamientos respecto de la organización que aprende, tomadas de varias corrientes del pensamiento sistémico; planteamientos sobre sistemas de información y desarrollo de sistemas de información del Pensamiento de Sistemas Blandos; y la reflexión sobre la acción tomada en cuatro organizaciones del sector educativo. Y un tercer momento, centrado en la reflexión, en donde se sintetiza el aporte central de la investigación: la ampliación del enfoque para el desarrollo de sistemas y tecnología de información con la idea de la organización queItem Aprendizaje para la cooperación asistido por juegos de simulación dinámico - sistémicos(Universidad Industrial de Santander, 2008) Ariza Zabala, Gerly Carolina; Sotaquira Gutierrez, RicardoLa inquietante preocupación por el agotamiento de los recursos a nivel mundial ha abierto la posibilidad para que desde varios campos de la ciencia se propongan alternativas para estudiar la problemática. Sin embargo, los estudios muestran que existe una constante disminución de la capacidad del ser humano en la gestión de los recursos. Es sugerido en esta investigación que dicha situación tiene que ver con el ser humano, más precisamente con cómo él se relaciona con el mundo, con cuál es su racionalidad al gestionar recursos. Se presenta en este trabajo de investigación una forma de abordar el problema de la sostenibilidad de recursos naturales, particularmente los recursos de uso común, a través del diseño de juegos de simulación que propenden por un aprendizaje guiado hacia la cooperación en el uso de recursos comunes desde la experiencia concreta del estudio del recurso Piangua, proporcionando unas primeras orientaciones para el diseño de juegos de simulación que propenden por la sostenibilidad del recurso, por el comportamiento en colectivo de los individuos, por la toma de decisiones colectivas y no individualistas, por la creación de condiciones que hacen posible la cooperación en comunidades que comparten recursos y la influencia que tienen las concepciones de cooperación, responsabilidad y confianza en la toma de decisiones individuales y colectivas. En particular, se evidencian en el documento aspectos que permiten a los participantes experimentar al jugar una racionalidad estratégica enriquecida por los aportes de la Autogestión colectiva en la toma de decisiones encaminada hacia la sostenibilidad de recursos de uso común, en otras palabras, experimentan, asimilan y refuerzan los beneficios de cooperar en el uso de recursos comunes.Item Arquitectura de red local para la transmisión de datos en banda ancha mediante la red eléctrica de baja tensión(Universidad Industrial de Santander, 2012) Villarreal Solano, Ariel Yezid; Castillo Castelblanco, Sergio Fernando; Trujillo Tarazona, Pedro JavierAnalizando el estado del arte de las redes de datos en banda ancha a través de un cableado eléctrico se observa que ha sido un tema de interés en países Europeos. En Diciembre del 2010 es aprobada por parte de la IEEE el estándar P1901 para este tipo de redes. El presente trabajo de investigación consistió en verificar el funcionamiento de esta tecnología en construcciones locales y para ello se tomó como referencia un edificio dentro de la Universidad Industrial de Santander en Bucaramanga (Colombia). Se analizaron las condiciones actuales de la red eléctrica del edificio, se consiguieron módulos competitivos actualmente en el mercado que cumplieran con la reciente estandarización de la IEEE para evaluar su desempeño. Para ello se implementó una red y se tomaron datos que permitieron verificar su rendimiento. Como resultado a la investigación, se propone una arquitectura de conectividad para la instalación de esta tecnología para este edificio y se plantea una metodología para hacerlo en edificios similares. El éxito del proyecto fue demostrar que esta tecnología es competitiva en el mercado, que es compatible con las redes Ethernet actuales, que se acopla al trabajo en paralelo con otras tecnologías de red y que tiene un excelente funcionamiento en edificaciones locales.