Maestría en Ingeniería de Sistemas e Informática
Permanent URI for this collection
Browse
Browsing Maestría en Ingeniería de Sistemas e Informática by browse.metadata.advisor "Barrios Hernández, Carlos Jaime"
Now showing 1 - 6 of 6
Results Per Page
Sort Options
Item Calendarización energéticamente eficiente en milliclusters(Universidad Industrial de Santander, 2016) Florez Suarez, Edson Alejandro; Barrios Hernández, Carlos Jaime; Pecero Sanchez, Johnatan E.El aumento de la necesidad de Computación de Alto Rendimiento ha llevado al incremento de la demanda de energía y el tamaño de los datacenters, y consecuentemente también lo hacen sus emisiones de carbono y costos de operación. Por esto, se deben desarrollar heurísticas adecuadas para el problema de calendarización (scheduling) de tareas, y se utiliza un clúster de procesadores de bajo consumo (milliWatts), que es energéticamente eficiente y ocupa poco espacio, conocido como millicluster. Para estimar el consumo de energía de los nodos del millicluster, se propone un modelo de energía basado en el uso de los recursos. El problema de calendarización de tareas es un problema de optimización combinatoria, que es abordado con el multi-objetivo de maximizar el rendimiento del sistema (minimización del makespan) y minimizar el consumo de energía, para satisfacer los requerimientos de los usuarios y del administrador del sistema. Los casos de estudio son instancias de calendarización de tareas de diferente consistencia y heterogeneidad de tareas y máquinas [8], que se basan en el modelo ETC [31]. El algoritmo de calendarización más destacado en las instancias más comunes del modelo ETC, es la metaheurística evolutiva Parallel Micro CHC.Item Estudio del despliegue y ejecución de aplicaciones sobre arquitecturas Post-Moore(Universidad Industrial de Santander, 2022-05-26) Rojas Yepes, Pablo Josué; Barrios Hernández, Carlos Jaime; Steffenel, Luiz Angelo; Martínez Abaúnza, Víctor Eduardo; Hernández Barragán, Esteban de Jesúsla mejora en las capacidades computacionales durante las últimas décadas se ha basado en la ley de Moore, pero debido a varios factores ha perdido su validez. Para seguir avanzando, se han propuesto varias soluciones para abordar estas falencias, esto ha generado la aparición y rápida diversificación de dispositivos. Estos nuevos dispositivos usan las ventajas de la ley de Moore en nuevos enfoques para superar los límites de la ley, recibiendo el nombre de Post-Moore. Dichos dispositivos Post-Moore ofrecen capacidades de rendimiento que merecen ser estudiadas mediante el despliegue y ejecución de aplicaciones. Además de los dispositivos, las necesidades de las aplicaciones limitan la elección de los dispositivos, ya que deben cubrir sus necesidades. Este estudio identifica las características que tienen estos dispositivos para ser etiquetados como Post-Moore. Con las características propuestas se eligen dispositivos que cubren las necesidades de las aplicaciones. A estos dispositivos y aplicaciones se les establecen estrategias de despliegue que usan lineamientos que procuran minimizar el impacto en el rendimiento computacional. Además, se dispone de mecanismos de evaluación que permiten medir la escalabilidad, portabilidad, eficiencia e impacto en el rendimiento según el despliegue de las aplicaciones. Al final, usando los dispositivos, aplicaciones, estrategias de despliegue, lineamientos y mecanismos de evaluación, se mide el impacto en el rendimiento computacional. La escalabilidad, eficiencia e impacto en el rendimiento se grafican como resultados comparativos según su estrategia de despliegue. Basado en los resultados se avalan los lineamientos propuestos para el despliegue de las aplicaciones. Esto permite una caracterización de la eficiencia computacional de estos dispositivos.Item Identificación de incendios forestales en imágenes satelitales usando Machine Learning/Deep Learning apoyado en sistemas computacionales integrados(Universidad Industrial de Santander, 2023-07-14) Pérez Argüello, Jhon Deivy; Rodríguez Ferreira, Julián Gustavo; Barrios Hernández, Carlos Jaime; Pertuz Arroyo, Said David; Mejía, JohnLa detección temprana de incendios forestales es un aspecto crítico en la lucha contra los desastres naturales que involucra a empresas, instituciones académicas y gobiernos. La inteligencia artificial puede ser una herramienta valiosa en la tarea de identificación de incendios forestales y en la promoción del uso de tecnologías avanzadas en los procedimientos actuales, pero su aplicación requiere una gran capacidad computacional y energética. Con este objetivo, se presenta un modelo de identificación de incendios forestales en imágenes satelitales de alta resolución que es altamente confiable y eficiente, y puede ser ejecutado en un sistema embebido. Se creó un Dataset de imágenes satelitales con bandas espectrales "M3I3M11", se entrenaron dos redes neuronales con este Dataset y se desarrolló un sistema de visión artificial llamado IGNIS, que funciona sin necesidad de entrenamiento previo y utiliza la biblioteca OpenCV. Para elegir el mejor de los tres algoritmos, se ejecutaron en el hardware embebido Jetson Nano de Nvidia, evaluando factores como la temperatura del dispositivo, el consumo energético, la memoria RAM, la GPU y la confiabilidad de las inferencias. La evaluación demuestra que el algoritmo IGNIS obtuvo el mejor puntaje en términos de confiabilidad con un 98% y en términos de consumo de recursos con un 29%.Item Problemas computacionales asociados a la construcción de modelos de simulación basados en autómatas celulares en paralelo. caso de estudio: evaluación de amenazas asociadas a flujos de lava volcánica como fluido binghan(Universidad Industrial de Santander, 2015) Gelvez Cortes, Sergio Augusto; Barrios Hernández, Carlos Jaime; Andrade Sosa, Hugo HernandoExisten procesos naturales que son de interés debido a su complejidad e impacto sobre la vida humana, y las erupciones volcánicas son de los ejemplos más fáciles de identificar. Un factor importante en relación al fenómeno de los flujos de lava volcánica de especial consideración es la complejidad matemática y computacional de los fenómenos. Al hablar de esta última se involucra a la computación de alto desempeño, y en esta, la eficiencia de las simulaciones es un tema crucial; es ahí donde este trabajo tiene su motivación: El construir un modelo de simulación, y caracterizarlo en su ejecución para determinar su eficiencia. El primer paso fue la creación del modelo partiendo del conocimiento del fenómeno, en este caso usando las teorías reológicas. Se usaron las ecuaciones de Navier-Stokes para fluídos tipo Bingham. Además, el método de autómatas celulares planteado se usó para simplificar la geometría del problema y de esa manera reducir la complejidad en la formulación matemática del mismo. Después se construyó una versión paralela del programa compatible con la infraestructura de cálculo avanzado de la universidad. De esta manera se usó como modelo de programación la GPGPU mediante CUDA©. Finalmente, se crearon varios programas en paralelo que usaban varios mapeos de procesos sobre elementos de cómputo y sobre las diferentes jerarquías de memoria. Se realizó un experimento para determinar características del comportamiento de la ejecución de los programas. Con los datos obtenidos se determinó que el mapeo con una GPU y memoria principal más la del dispositivo es el más eficiente. Al final, se proponen caminos posibles para la continuación del trabajo, desde diversas perspectivas, tanto computacionales como del fenómeno en sí.Item Procesamiento masivamente paralelo de aplicaciones científicas en arquitecturas híbridas soportado por multi-gpu(Universidad Industrial de Santander, 2016) Hernandez Ariza, Monica Liliana; Barrios Hernández, Carlos Jaime; Raffin, BrunoSimulaciones numéricas usando supercomputadores están produciendo un creciente volumen de datos. La producción y análisis eficiente de los datos son clave para futuros descubrimientos. El paradigma in situ emerge como una solución prometedora para evitar el cuello de botella en los dispositivos E/S que se genera en el sistema de archivos por la simulación y el análisis. El principio es procesar los datos tan cerca como sea posible donde y cuando estos son producidos. Varias estrategias e implementaciones han sido propuestas en los íltimos a˜nos para soportar procesamiento in situ con un bajo impacto en el rendimiento de la simulación. Aín así, pocos esfuerzos se han hecho en el escenario de procesamiento de análisis in situ con aplicaciones híbridas que soporten aceleradores como GPUs. En éste trabajo, se propone un estudio de las estrategias in situ usando Gromacs, un paquete de simulación de dinámica molecular con soporte multi-GPU, como aplicación de prueba. Dicho estudio se enfoca en el uso de recursos computacionales de la máquina por la simulación y el análisis in situ. Para finalizar, las estrategias de ubicación in situ son extendidas al caso de análisis in situ ejecutado en la GPU y se estudia su impacto en el rendimiento de Gromacs y la utilización de recursos. En particular se muestra que la ejecución de análisis in situ en GPU puede ser una solución más eficiente que en la CPU especialmente cuando la CPU es el cuello de botella de la simulación.Item Protocolo de transferencia masiva de datos desde dispositivos hardware hacia repositorios de datos(Universidad Industrial de Santander, 2016) Torres Niño, Luis Alejandro; Nuñez, Luis Alberto; Barrios Hernández, Carlos JaimeLa producción de datos científicos por parte de los grupos de investigación ha crecido de forma exponencial en los últimos años, haciendo que el protocolo TCP sea insuficiente para lograr realizar la transferencia de estos grandes volúmenes de datos. Por otra parte, una vez transferidos los datos, es necesario catalogarlos y almacenarlos en bases de datos llamadas repositorios. Ahora bien, estas tareas de transferencia, catalogación y almacenamiento de datos son realizadas de forma manual por la gran mayoría de las comunidades científicas modernas, por lo cual datos. El estándar de interoperabilidad SWORD permite realizar ingestiones remotas desde equipos hardware hacia repositorios. Esta herramienta fue tomada para desarrollar el primer modelo cliente/servidor para dar solución al problema. Se observa que SWORD se encuentra limitado en el contexto del presente trabajo y por tanto, se replantea un nuevo desarrollo. UDT es un protocolo que permite la transferencia de datos a través de redes WAN y que permite la utilización de casi todo el ancho de banda disponible. En base a esto, se construye un nuevo modelo cliente/servidor en donde se utiliza UDT para transferir datos y metadatos desde dispositivos hardware (instrumentos generadores de datos) hacia los repositorios de datos. El modelo cliente/servidor basado en UDT es integrado al repositorio de datos utilizando las herramientas de administrativas dadas por el software de repositorio de datos DSpace. 1