Trabajos de grado: Pregrado y Especialización
Permanent URI for this community
Browse
Browsing Trabajos de grado: Pregrado y Especialización by browse.metadata.advisor "Abreo Carrillo, Sergio Alberto"
Now showing 1 - 20 of 25
Results Per Page
Sort Options
Item Análisis y evaluación del modelo de estrato somero del seam phase II: foothills model basado en el piedemonte llanero, Colombia(Universidad Industrial de Santander, 2021) Castillo Afanador, Juan Pablo; Agudelo Zambrano, William Mauricio; Pinto Valderrama, Jorge Eduardo; Abreo Carrillo, Sergio AlbertoEl piedemonte, debido a su complejidad estructural y diversidad geológica, es uno de los terrenos mayormente prospectados para la explotación de hidrocarburos. Buscando abordar los principales retos presentes en estudios sísmicos, la Sociedad de Geofísicos de Exploración (SEG), con el apoyo de entidades asociadas, desarrolló el modelo numérico SEAM Phase II: Foothills Model, el cual simula este comportamiento geológico y petrolífero tan característico. Para brindar una precisión confiable al modelo, el grupo SEAM contó con datos sísimicos provenientes de campañas en el Piedemonte Llanero. Este se plantea a partir de dos porciones individuales de material sedimentario que se encuentran interactuando sísmicamente: la capa superficial de baja velocidad, denominada estrato somero; y las capas de roca estratificada que la subyacen y conforman el subsuelo. Sin embargo, para el diseño del estrato somero, se consideraron variables dependientes de la topografía que definen algunas características morfológicas; extensión lateral, espesores y expresión superficial evidencian este condicionamiento. Al comparar la geología reportada por el Servicio Geológico Colombiano (Montoya et al., 2013) en la localización del modelo, con aquella propuesta por la SEG, son observadas sus primeras diferencias geológicas. Adicionalmente, a partir del análisis por sensores remotos, se comprueban las variaciones empleadas por conveniencia del modelo y, junto con la producción de una tomografía 3D basada en la campaña de Níscota, se sugieren nuevos parámetros que mejoren su representación geológica. 1Item Desarrollo de material didáctico para el área de sistemas digitales basados en la plataforma SIE asignatura: Arquitectura de computadores(Universidad Industrial de Santander, 2012) Ochoa Blanco, Gustavo Adolfo; Méndez Flórez, Neder Jair; Angulo J., Carlos J.; Ramon Suarez, Jorge Hernando; Salamanca B., William A.; Fajardo Ariza Carlos Augusto; Abreo Carrillo, Sergio AlbertoEste trabajo pretende ser una herramienta de apoyo académico para los estudiantes de la asignatura arquitectura de computadores e iniciar un proceso de renovación del enfoque pedagógico del área de sistemas digitales en la Universidad Industrial de Santander. Se diseñaron un conjunto de guías como medio de transferencia de conocimiento de la investigación hecha y las experiencias ligadas a esta, basadas en la plataforma SIE y las grandes ventajas académicas que representa. El propósito de cada guía es el de provocar en el estudiante una comprensión profunda y consiente de conceptos propios de la asignatura, a través de una filosofía de concepción a bajo nivel de los procesos que se llevan a cabo en cada experiencia y actividad propuesta. Ventaja que ofrece la plataforma SIE al ser totalmente libre (hardware copyleft, free software) debido a que el estudiante dispone entre muchas otras cosas de información que de otra manera estaría restringida. Además del conjunto de guías se diseñó un manual de usuario, que tiene como función complementar los temas y conceptos vistos en las guías refiriéndose en su mayoría a conceptos complementarios y detalles que deben ser tenidos en cuenta para el desarrollo de las mismas. Por último para asegurar la calidad del producto final de este trabajo, representado en las guías de laboratorio y el manual de usuario se realizó un proceso de validación que tuvo como principal recurso, un grupo de estudiantes voluntarios, que ayudaron a detectar errores y a enriquecer el contenido de de estas a través de su ejecución.Item Desarrollo de material didáctico para el área de sistemas digitales basados en la plataforma SIE asignatura: Sistemas embebidos(Universidad Industrial de Santander, 2012) Uyaban Becerra, Luis Carlos; Ramon Suarez, Jorge Hernando; Salamanca B., William A.; Angulo Julio, Carlos Andrés; Fajardo Ariza Carlos Augusto; Abreo Carrillo, Sergio AlbertoActualmente se desea incluir en el pensum de Ingeniería electrónica de la E3T la asignatura llamada Sistemas Embebidos. Esta asignatura culminará el proceso de aprendizaje del área de electrónica digital que imparte actualmente la E3T. El desarrollo práctico de la asignatura se basa en el manejo de un sistema de desarrollo llamado SIE el cual cuenta con todos los elementos tanto de software como de hardware para el desarrollo de la asignatura. Este proyecto tiene como objetivo desarrollar una serie de guías prácticas que permitan dar una orientación clara y objetiva sobre los temas teóricos suministrados en la asignatura, y sobre el uso de la tarjeta SIE en la misma. La selección de los temas se realizó teniendo en cuenta el proceso de aprendizaje que se ha venido desarrollando en las asignaturas de Sistemas Digitales, Arquitectura de computadores y procesadores que culminaría brindando los conceptos finales necesarios para que los estudiantes puedan concebir, diseñar, implementar y operar sistemas digitales avanzados. El desarrollo del proyecto dió como resultado la elaboración e implementación de 10 guías prácticas con temáticas orientadas al desarrollo de drivers y construcción de interfaces gráficas de usuario, que se encuentran consignadas en un documento llamado guías de laboratorio Sistemas embebidos. Además se incluye los requerimientos previos de software y hardware que se deben cumplir y pasos a ejecutar que permiten la realización exitosa de las guías. Las guías quedarán a disposición de los profesores del área de electrónica digital de la E3T para su implementación. Finalmente se incluyen recomendaciones que se deben tener en cuenta al momento de realizar las guías.Item Desarrollo de material didáctico para la asignatura arquitectura de computadores basado en la plataforma SIE: Estructura y funcionamiento de procesos(Universidad Industrial de Santander, 2012) Vargas Prieto, Pedro Abel; Ramon Suarez, Jorge Hernando; Salamanca B., William A.; Angulo Julio, Carlos Andrés; Fajardo Ariza Carlos Augusto; Abreo Carrillo, Sergio AlbertoEl proyecto trata de renovar el material didáctico para el laboratorio de la asignatura Arquitectura de computadores. Se han tomado los temas principales y con cada uno de ellos se ha diseñado una actividad para usar como práctica de esta asignatura. Para este proceso se utilizará la plataforma SIE, la cual posee grandes ventajas tanto de software como de hardware para el aprendizaje, no sólo para esta asignatura sino para todo el área de sistemas digitales. Se construye un manual de guías donde se añaden una serie de prácticas que proporcionan al estudiante las habilidades necesarias para entender la estructura y el funcionamiento del procesador usando la metodología adecuada, en donde aplicará sus conocimientos y entenderá paso a paso el proceso de la actividad propuesta en cada guía hasta llegar al final, con la mejor comprensión del tema. El software que se utiliza para el progreso de las guías son: el sistema operativo Linux, el compilador GCC y el depurador GDB. Estas herramientas de desarrollo son gratuitas, lo que conlleva a que este material esté al alcance de cualquier estudiante, en especial para aquellos que no tienen los recursos para invertir en la adquisición de este software. También se elabora un manual de usuario que complementa el conjunto de prácticas donde se encuentran aspectos complementarios relacionados con el desarrollo de las guías en la plataforma SIE y otros detalles necesarios para dar claridad a cada una de las prácticas. Finalmente se hizo un proceso de validación por medio de un grupo de estudiantes, que arrojó falencias en cada una de las prácticas y permitió las correspondientes modificaciones para obtener un material académico de calidad.Item Desarrollo de un módulo para Promex que realice el proceso de inversión de onda completa (fwi) para la obtención de modelos de velocidades(Universidad Industrial de Santander, 2016) Jimenez Barandica, Oscar Ivan; Ramírez Silva, Ana Beatriz; Abreo Carrillo, Sergio AlbertoUna etapa del procesamiento de datos sísmicos es la obtención de modelos de velocidades del subsuelo. Este proceso puede realizarse mediante métodos tales como la inversión de onda completa ó FWI (por sus siglas en inglés full waveform inversión). El algoritmo de la inversión de onda completa (FWI) se caracteriza por estimar modelos de velocidades de alta fidelidad que sirven como punto de partida para posteriores etapas, con el propósito de adquirir una imagen del subsuelo que se ajuste a la realidad. En la práctica estos procesos se llevan a cabo mediante software diseñados especialmente para aplicaciones geofísicas. Actualmente la mayoría de las empresas petroleras Colombianas utilizan SeisSpace® ProMAX®. Sin embargo, no existe un módulo en este software que estime modelos de velocidades de gran precisión como lo hace el método FWI. En este proyecto de investigación se integró el algoritmo de FWI desarrollado en lenguaje de programación CUDA-C en un módulo de ProMAX®, estableciendo un conjunto de reglas de compilación en un archivo Makefile. El módulo ejecuta el algoritmo FWI sobre una unidad de procesamiento gráfico GPU (por sus siglas en inglés graphics processing unit) que minimiza los tiempos de ejecución en la obtención de modelos de velocidades del subsuelo.Item Detección automática de primeros arribos en trazas sintéticas terrestres del Valle Medio del Magdalena usando redes neuronales artificiales(Universidad Industrial de Santander, 2022-09-15) Reyes Cachopo, Óscar Fabián; Rincón Zambrano, Silvia Janeth; Reyes Torres, Óscar Mauricio; Abreo Carrillo, Sergio Alberto; Salamanca Becerra, William Alexander; Ramírez Silva, Ana BeatrizEste trabajo se centra en la detección de primeros arribos de un conjunto de datos sísmicos generados sintéticamente con características del Valle Medio del Magdalena mediante el uso de redes neuronales artificiales. Para ello, se estudian los diferentes conceptos y elementos que conforman el evento sísmico permitiendo la obtención de atributos que entregan información en la detección del primer arribo. Dentro de la adquisición sísmica, la presencia de ruido enmascara el pulso que corresponde al primer arribo, lo que dificulta la tarea de detección y hace necesario que un experto realice esta labor de forma manual. Sin embargo, el gran volumen de datos sísmicos, el tiempo requerido y los diversos criterios de selección basados en la subjetividad del operador, producen picados sesgados que aumentan la posibilidad de errores durante el proceso, haciendo adecuado el uso de herramientas que faciliten la detección de forma automática. La arquitectura de la red solución es obtenida a partir de la unión de dos estrategias encontradas en el estado del arte. La primera plantea una detección a partir de información de la traza cruda y un conjunto de transformaciones mediante el uso de redes densamente conectadas. La segunda consiste en una red convolucional la cual realiza la detección haciendo uso de filtro pasa bajas, la traza cruda y 31 transformaciones Wavelet. Estas estrategias determinan los primeros arribos analizando las trazas sísmicas individualmente. Nuestra propuesta consiste en una red solución conformada por una secuencia de capa convolucional 1D, maxpooling 1D, capa flatten y dos capas densas. Los parámetros e hiperparámetros de la red son seleccionados mediante múltiples iteraciones y experimentos, llegando así a la identificación del tiempo de llegada de la onda refractada con el uso de transformadas Wavelet, filtro pasa bajas y las trazas sísmicas normalizadas. Finalmente con esta solución se logra alcanzar aciertos con un error máximo de cinco muestras en el 81,08% de 4108 trazas sísmicas con 1251 muestras y niveles de ruido entre el rango de 6 dB a 10 dB. Adicionalmente se evalúa la red variando la relación señal a ruido entre 0, 3, 6, 10 y 20 dB, proporcionando aciertos del 61,85% , 72,03% , 77,67% , 82,78% y 85,10% respectivamente con errores máximos de 5 muestras frente al arribo verdadero.Item Detección automática de primeros arribos usando redes neuronales artificiales en trazas terrestres reales del catálogo sísmico colombiano.(Universidad Industrial de Santander, 2023-03-02) Mantilla Parra, Juan José; Vargas Blanco, Miguel Rodrigo; Abreo Carrillo, Sergio Alberto; Ramírez Silva, Ana Beatriz; Niño Niño, Carlos Andrés; Serrano Luna, Jheyston OmarEste trabajo se basa en la detección de primeros arribos en trazas sismológicas registradas en el Catálogo Sísmico Colombiano utilizando redes neuronales artificiales. Dada la gran cantidad de eventos sísmicos que se generan y registran diariamente; y el largo proceso que implica el análisis manual de los eventos para poder determinar el primer arribo, se han desarrollado algoritmos y herramientas que permiten la extracción de información de estos eventos de manera automática. En este proyecto, se consideran las diferentes condiciones en las que se obtienen los datos y lo que implica la presencia de ruido en la traza, que dificulta la correcta detección del primer arribo. Adicionalmente, se realiza una descarga, organización y clasificación de eventos sismológicos reportados por el Servicio Geológico Colombiano y publicados en el Catálogo Sísmico Colombiano, para el entrenamiento, validación y evaluación de la red neuronal. La red neuronal utilizada tiene como entrada los canales del evento sismológico, un filtro pasa bajas y una serie de transformadas que luego son ingresadas a una arquitectura que fusiona dos estrategias dando como resultado una secuencia de capa convolucional 1D, maxpooling 1D, capa flatten y dos capas densas, en donde se adicionan capas de dropout. En este trabajo se evalúan los resultados de la predicción de la red para diferentes escenarios de entrenamiento, en los cuales se varían: tamaño de la entrada y salida de la red, número de transformadas Wavelet, diferentes tipos de etiquetas para identificar el primer arribo en los datos de entrenamiento, además de evaluar diferentes conjuntos de datos de tanto para entrenamiento como para reentrenamiento, que incluyen tanto trazas del Catálogo Sísmico Colombiano como del STanford EArthquake Dataset (STEAD). Como resultado, se obtiene un error promedio mínimo en el número de muestras en la predicción para el conjunto de datos crudos reales del Servicio Geológico Colombiano de 227 muestras, incluido el error intrínseco de los datos que provee el Catálogo Sísmico Colombiano como resultado de la precisión de la estampa de tiempo empleada para identificar el primer arribo en los eventos registrados.Item Diseño de un algoritmo que permita la reconstrucción de imágenes sísmicas en 3d a partir de datos comprimidos(Universidad Industrial de Santander, 2012) Zuluaga Quintero, Amat Duban; González Quintero, Milton Andrey; Martínez Silva, Ana Beatriz; Abreo Carrillo, Sergio AlbertoEste artículo presenta la implementación de un algoritmo en Matlab que realiza la reconstrucción de un sismograma en tres dimensiones (3D) a partir de un número reducido de muestras adquiridas de manera aleatoria (tomando muy pocos datos, aproximadamente un 30% de la información utilizada con las técnicas tradicionales de adquisición), usando la técnica de muestreo comprimido (Compressive Sampling). Esta técnica se fundamenta en que las señales muestreadas deben ser poco densas (Sparse) en algún dominio especifico, (Wavelet y Curvelet). Estas señales pueden ser muestreadas por debajo de la frecuencia de muestreo requerida por el teorema de Shannon-Nyquist. Para hacer la reconstrucción de la imagen sísmica en 3D se utiliza una herramienta computacional que resuelve problemas de optimización mediante el uso del método de punto interior para mínimos cuadrados con regularización . El algoritmo de optimización es usado para reconstruir los coeficientes de la señal poco densa, y luego se aplica una transformación inversa para obtener el sismograma 3D reconstruido. Al final de este artículo se muestra una comparación del sismograma 3D reconstruido con los sismogramas originales, de modo que se pueda verificar la eficiencia de esta implementación y su posible aplicación a futuro en el proceso de adquisición de trazas sísmicas.Item Diseño de un algoritmo que simule la adquisición de imágenes sísmicas 3d usando la estrategia de censado comprimido(Universidad Industrial de Santander, 2012) González Duarte, Raul Herney; Yancy Avendaño, Jose Ricardo; Ramírez Silva, Ana Beatriz; Abreo Carrillo, Sergio AlbertoActualmente la adquisición de trazas sísmicas en tres dimensiones se basa en el clásico teorema de muestreo propuesto por Shannon y Nyquist, el cual genera millones de datos que representan la información del subsuelo. En este trabajo se presenta la simulación de una nueva estrategia de adquisición conocida como muestreo comprimido, específicamente para aplicación de sísmica 3D. Esta técnica se fundamenta en el hecho de que un pequeño número de proyecciones lineales aleatorias de una señal compresible (poco densa), contiene información suficiente para reconstruir la imagen 3D completamente. Esta técnica requiere que la señal a ser adquirida sea poco densa en algún dominio y que la matriz de muestreo sea incoherente con la base de representación de la señal de interés. Convencionalmente, durante la adquisición de datos en diferentes aplicaciones, se realizan dos etapas: muestreo y compresión. Estas dos etapas se realizan en forma separada y tradicionalmente requieren circuitería analógica o digital separada para ser ejecutadas. Por otro lado la teoría de Muestreo Comprimido (CS por las siglas en inglés Compressive Sampling) indica que es posible realizar estos dos procesos de forma simultánea. En particular, en este trabajo se analizan dos bases en las cuales las trazas sísmicas son poco densas: wavelet y curvelet. Además se proponen 3 diferentes tipos de matrices de medición para la adquisición de las trazas sísmicas en 3D. 1Item Diseño de un procesador especifico descrito en vhdl que permite calcular cuatro parámetros necesarios dentro del proceso de migración sísmica(Universidad Industrial de Santander, 2010) Sepúlveda Suarez, Henyer Ricardo; Fajardo Ariza, Carlos Augusto; Abreo Carrillo, Sergio AlbertoEn este artículo se presenta el proceso de diseño de un procesador de propósito específico que calcula el tiempo de viaje, la desaceleración lateral, el coseno del ángulo incidente y el ángulo emergente; cuatro parámetros dentro del proceso de migración sísmica, todos en formato de punto flotante de precisión sencilla. La metodología de diseño empleada tiene como objetivo elaborar módulos de hardware que cumplan una función específica, paralelizando la mayor cantidad de operaciones en variables y módulos funcionales para así utilizar la menor cantidad de recursos lógicos. La metodología de diseño consiste en la implementación de un Datapath, que se encarga de todo el hardware necesario en el procesador especifico, controlado por una Máquina de Estados Finita (FSM), que permita secuenciar las operaciones, pero para la realización de estos dos módulos se incluye en el flujo de diseño la realización de un Diagrama de Maquina de Estados Algorítmica (ASM) que facilita la construcción de los mismos. Adicionalmente, como en el proceso de diseño se necesita de módulos funcionales para la realización de las operaciones aritméticas y trigonométricas que trabajan en formato de punto flotante, se presenta de forma general el funcionamiento de los módulos funcionales y se enumeran los trabajos y herramientas de donde se tomaron los módulos para el proceso de construcción del procesador específico. Por último, se presenta la validación del diseño, calculando los cuatro parámetros, mediante pruebas de simulación, aprovechando la herramienta de software ISE de Xilinx.Item DISEÑO DE UNA MICROARQUITECTURA RISC-V ENERGETICAMENTE EFICIENTE PARA APLICACIONES DE BAJO COSTO(Universidad Industrial de Santander, 2024-05-17) Gualdrón Manrique, Gerson Leandro; Ardila Ochoa, Javier Ferney; Abreo Carrillo, Sergio Alberto; Rueda Guerrero, Luis Eduardo; Fajardo Ariza, Carlos Augusto; Salamanca Becerra, William AlexanderLa creciente demanda de dispositivos portátiles enfocados a la salud, el bienestar físico y el entretenimiento, combinada con el lento avance tecnológico de las baterías respecto a estos dispositivos, ha generado la necesidad de diseñar dispositivos con bajo consumo energético manteniendo un rendimiento óptimo. Este trabajo tiene como objetivo diseñar e implementar una microarquitectura RISC-V de bajo consumo de potencia, buscando la ejecución de cada instrucción en un único ciclo de reloj. Además, se propone un proceso de diseño muy detallado que puede replicarse e implementarse fácilmente. Aunque existen varias implementaciones de procesadores RISC-V de código abierto, ninguna está lo suficientemente documentada o detallada como para permitir que un principiante pueda replicarlas. Cada componente está diseñado en el lenguaje de descripción de hardware (HDL) de Verilog. La implementación del diseño se realiza en la plataforma Xilinx KC705, que cuenta con una FPGA en tecnología de proceso CMOS de 28 nm.Item Elaboración de una herramienta en lenguaje C que permita identificar el desempeño de un algoritmo sobre un FPGA a partir de sus sentencias de control(Universidad Industrial de Santander, 2012) Platarrueda Acuña, Andrés Fernando; Verbel González, Pablo Ernesto; Abreo Carrillo, Sergio Alberto; Fajardo Ariza Carlos AugustoEste articulo muestra el desarrollo de una herramienta computacional que permite hacer una aproximación del desempeño de un algoritmo escrito en lenguaje C al ser implementado sobre un FPGA y evaluar la viabilidad de dicha implementación. El saber de manera previa si vale la pena implementar un algoritmo sobre un FPGA es muy valioso, ya que generalmente estos desarrollos implican bastante esfuerzo y tiempo. La herramienta fundamenta su análisis en la extracción de ciertos parámetros clave dentro del algoritmo, tales como el formato de los datos, la dependencia de los datos, numero de trasferencias de registros, número de operaciones aritméticas, las sentencias de control y su anidamiento. Estas características se extraen haciendo un barrido por las cadenas de caracteres del algoritmo y haciendo una análisis léxico y sintáctico de ellas. Se generó una figura de mérito que le asigna un porcentaje a cada característica extraída dependiendo de cuan favorable sea cada parámetro para la implementación y de esta forma obtener una aproximación de la viabilidad de que el proceso tenga buen rendimiento al ser implementado en un FPGA. La herramienta cuenta con una interfaz gráfica de usuario que permite introducir un algoritmo de entrada escrito en lenguaje C y obtener a la salida algunos parámetros de rendimiento. 1Item Evaluación de contenedores de Docker para aplicaciones sobre gpu(Universidad Industrial de Santander, 2021) León Godoy, Gissel Daniela; Abreo Carrillo, Sergio Alberto; Ramírez Silva, Ana BeatrizEn el mundo de la investigación científica cuando se obtienen nuevos resultados es necesario quedespués de obtenerlos estos puedan corroborarse en cualquier otra situación o en cualquier otrolugar (reproducibilidad y repetibilidad). Los contenedores de Linux se presentan como una opciónpara solucionar el problema de reproducibilidad en software científico, ya que muchas veces la tareade hacer un producto compatible con diferentes entornos de trabajo se hace casi imposible. El objetivo principal de esta investigación es evaluar el rendimiento de Docker sobre GPUs, las cuales sonutilizadas ampliamente en investigaciones y responder a la pregunta ¿se obtiene algún beneficio opérdida al usar un contenedor de Linux con Docker para desplegar aplicaciones de alto rendimiento?Para visualizar el comportamiento del contenedor, se realizaron diferentes pruebas y se evaluaronprincipalmente tiempos de ejecución y compilación. Las pruebas se hicieron sobre sistema nativo yusando contenedores con el fin de comparar los dos escenarios y evaluar el rendimiento del contenedor. Con este trabajo se aporta más evidencia de que los contenedores son una herramientaimportante, que no ofrece pérdidas considerables y que su uso en la comunidad científica debecrecer con el fin de aumentar la reproducibilidad y repetibilidad de la investigación científica..Item Evaluación de la herramienta de tomografía sísmica fmtomo para aplicaciones de alto desempeño(Universidad Industrial de Santander, 2014) López Guerra, Juan Sebastián; Abreo Carrillo, Sergio AlbertoColombia siempre ha sido un pa™s reconocido por su riqueza en cuestiŠn de recursos naturales: vegetales, animales, h™dricos y minerales. Precisamente estos œltimos se han tornado de gran inter”s en una ”poca donde el petrŠleo hace girar al mundo. Debido a este inter”s en la explotaciŠn petrolera, las zonas de f⁄cil acceso al petrŠleo comienzan a acabarse y por esta razŠn, los esfuerzos se est⁄n enfocando a la exploraciŠn de zonas de dif™cil acceso. Para la exploraciŠn petrolera en estas zonas se buscan alternativas que den buenos resultados sin ser demasiado costosas. Una de estas t”cnicas es la tomograf™a s™smica, que permite la obtenciŠn de modelos del subsuelo a partir de adquisiciones en la superficie. Diversas herramientas para la realizaciŠn de tomograf™a s™smica han sido desarrolladas, una de ellas es FMTOMO, que es una herramienta que resuelve la tomograf™a s™smica como un problema inverso que se plantea como un problema de optimizaciŠn a partir de una aproximaciŠn lineal de la ecuaciŠn eikonal. El principal enfoque del trabajo es evaluar la herramienta en t”rminos de aplicaciŠn y en t”rminos de desempeŒo computacionales.Item Evaluación de una herramienta de compilación c to vhdl para la implementación de procesadores de propósito específico sobre fpg(Universidad Industrial de Santander, 2012) Boada Quijano, Carlos Arturo; Bedoya Ojeda, Jorge Humberto; Fajardo Ariza, Carlos Augusto; Abreo Carrillo, Sergio AlbertoPara algunos problemas de computo intensivo, las FPGA han demostrado ser una soluci ´ on superior a ´ arquitecturas como las CPU e incluso las GPU. Sin embargo, la implementacion de un algoritmo sobre ´ esta tecnología requiere la “traduccion” del mismo, a un Lenguaje de Descripci ´ on de Hardware (HDL), ´ lo cual, consume un mayor tiempo de diseno y requiere de conocimientos en dise ˜ no digital. ˜ Con el fin de facilitar la implementacion de algoritmos sobre las FPGA, recientemente se han desar- ´ rollado compiladores que hacen el trabajo de “traduccion”. Este tipo de compiladores se conocen ´ con el nombre de Compiladores C to HDL. El objetivo de este proyecto es evaluar la herramienta de compilacion Impulse C en tres aspectos específicos: tiempo de dise ´ no, rendimiento computacional y ˜ tamano. ˜ Para realizar la evaluacion se han utilizado dos algoritmos, el primero de ellos calcu ´ la la matriz de covarianza para un conjunto de tres variables y el segundo realiza una integral de orden dos por medio del metodo de Montecarlo. La metodología de evaluaci ´ on consiste en implementar los dos algoritmos ´ de tres formas diferentes: 1) desarrollo en lenguaje C e implementacion en una arquitectura CPU, ´ 2) desarrollo mediante el compilador Impulse C e implementacion en una arquitectura FPGA y 3) la ´ implementacion en una FPGA mediante metodologías tradicionales de dise ´ no digital. ˜ Los resultados del presente trabajo muestran que la herramienta evaluada puede reducir hasta 10 veces el tiempo de diseno; tambi ˜ en logra desempe ´ nos computacionales de hasta 120 veces cuando se com- ˜ paran con la implementacion en la arquitectura CPU y desempe ´ nos similares cuando se compara con la ˜ implementacion en la arquitectura FPGA realizada en forma tradicional; e ´ n cuanto a la administracion de ´ los recursos logicos se observ ´ o una fuerte dependencia con el tipo de aplicaci ´ on.Item Evaluación del algoritmo de migración de kirchhoff en 2d en un clúster de procesadores(Universidad Industrial de Santander, 2009) Terán Julio, Gerardo Enrique; Pita Escamilla, Julian Rodrigo; Ramírez Silva, Ana Beatriz; Salamanca, William; Abreo Carrillo, Sergio AlbertoLa migración 2D de Kirchhoff con Pre-apilamiento en tiempo utilizada para el análisis de datos sísmicos con el fin de crear un modelo en computadora de el subsuelo, es un procesos que puede llegar a demorar una gran cantidad de tiempo debido al tamaño de los datos que esté debe procesar y sumado a eso el proceso consta de bucles iterativos sobre los datos analizados. El presente trabajo muestra el proceso de implementación de algoritmo de migración de Kirchhoff programado para ejecutarse en paralelo1 sobre varios procesadores en un clúster de procesadores de alto rendimiento. Luego se comparan los tiempos empleados por el programa en paralelo con el programa secuencial con lo cual se hace una demostración de las grandes ventajas del programa paralelo y de utilizar computación de alto rendimiento para resolver problemas similares con otros algoritmos. En este documento se muestran claramente tanto los resultados de la evaluación del algoritmo de Kirchhoff en paralelo como su modo de implementación. Adicionalmente a eso se detalla la instalación de todas las herramientas necesarias para el desarrollo de los algoritmos en paralelo, configuración de un clúster de procesadores y herramientas necesarias para la evaluación. Obviamente se hace una revisión del estado del arte con anterioridad y se presentan los conceptos básicos donde se incluyen las teorías necesarias en lo que respecta a sísmica, informática y electrónica; necesaria cuando se desea entender a fondo el contenido de este documento.Item Implementación de un algoritmo de inversión de onda completa (FWI) 2D con anisotropía VTI utilizando un clúster de GPUS(Universidad Industrial de Santander, 2018) Mayorga Triana, Petter Alexis; Vega Nieves, Daniel Alejandro; Ramírez Silva, Ana Beatriz; Abreo Carrillo, Sergio AlbertoEste proyecto busca desarrollar e implementar estrategias computacionales para desarrollar la Inversion de onda completa o FWI por sus siglas en inglés´ Full Wave Inversion en arquitecturas de computo en paralelo o GPU del ingles´ Graphic Processing Units. Estas estrategias consisten en realizar un mejor manejo de la memoria, con el fin de que esta memoria no sea una limitante para modelos de datos muy grandes. Las estrategias que se van a implementar son dos, la primera se denomina checkpointing method o metodo del punto de control y consiste en segmentar laénversion de onda completa con el fin de utilizar los datos de una propagación par- ´ cial para hacer calculos parciales, haciendo varias propagaciones parciales y al final sumar los calculos parciales para obtener la inversion de onda completa en su tota- ´ lidad. La segunda estrategia llamada hidden latency method o metodo de latenciaóculta, consiste en aprovechar la memoria del host, haciendo transferencias de datos de manera as´ıncrona a traves de código concurrente, ocultando as ´ ´ı las latencias de dichas transferencias de datos. Ambos metodos se pueden analizar y comparar ´ con la estrategia normal o tradicional, que consiste en desarrollar la inversion deónda completa manteniendo los datos en la RAM de la GPU.Item Implementación de un algoritmo para eliminación de ruido ground roll en los sismogramas usando transformada curvelet(Universidad Industrial de Santander, 2014) Quiroz Ramirez, Diego Andrés; Ramírez Silva, Ana Beatriz; Abreo Carrillo, Sergio AlbertoEn el siguiente trabajo de grado se aborda el estudio y la implementación de la Transformada curvelet, empezando con conceptos previos, la verificación de su desempeño y su uso en el tratamiento de imágenes, específicamente en el campo de la sísmica de reflexión. Debido a que las curvelets permiten representar en forma más exacta las reflexiones sísmicas obtenidas del subsuelo, el filtrado de las mismas en este dominio permite separar en forma adecuada el ruido ground roll de las reflexiones de interés. El objetivo final es la eliminación de este ruido (considerado como un tipo . El ground roll es una onda que se propaga por la superficie con una velocidad menor que la de la onda directa. Posee una baja frecuencia y de gran amplitud, y hace que interfiera con las señales primarias reflejadas. Las ecuaciones utilizadas son las descritas en la literatura e implementadas por medio de un algoritmo, el cual arroja diferentes resultados experimentales. Por medio de un simulador numérico se realiza el estudio del comportamiento de la transformada en diferentes condiciones, tanto en 1D (una dimensión) como en 2D (dos dimensiones). Luego se procede a su implementación en una traza sísmica, realizando un filtrado mediante la multiplicación término a término entre la transformada de Fourier de esta señal y la transformada de Fourier de la curvelet. Por último se realiza el tratamiento a una imagen sísmica real que posee ruido ground roll con el propósito de eliminarlo y mejorar la calidad de las trazas. El software en el cual se implementara esta técnica de filtrado a través de un algoritmo computacional en lenguaje C es Seismic Un*x (SU); el cual es un software libre, de distribución gratuita y es ampliamente usado para el procesamiento de datos sísmicos.Item Implementación de un modulo de propagación de onda elástica 2d utilizando un clúster de gpus(Universidad Industrial de Santander, 2018) Manjarres Garcia, Andres Mauricio; Abreo Carrillo, Sergio AlbertoEste trabajo consiste en la implementación de un algoritmo que permite modelar la propagación de ondas elásticas de dos dimensiones, en medio isótropo, es decir un medio que mantiene sus propiedades sin importar la dirección de la propagación. Adicionalmente, para evitar que la onda rebote en la frontera del modelo creando comportamientos alejados a los reales, se utilizo una región de absorción en los bordes. Esta región se desarrollo mediante la estrategia de Capas Convolucionales Perfectamente Acopladas (C-PML por sus sigas en ingles convolutional-perfectly matched layers). Para implementar las ecuaciones de propagación en equipos de computo, se utilizó discretización de las derivadas por medio de diferencias finitas y de los modelos utilizando el esquema de malla intercalada. La ejecución del algoritmo se realizo sobre una unidad de procesamiento gráfico (GPU, por sus siglas en ingles) y programación en paralelo (CUDA) para acelerar el procesamiento de datos. Los resultados de la implementación numérica se contrastaron por medio de la respuesta quasi-analitica de las ecuaciones desarrollada en trabajos anteriores. Por otro lado se pudo comparar la velocidad de procesamiento del algoritmo respecto a ejecuciones que no usan computación en paralelo. El algoritmo implementado se enfoco de tal forma que el propagador pueda ser utilizado en otros procesos de análisis sísmico como el método de inversión de onda completa.Item Medición del desempeño de un algoritmo de inversión de onda completa (fwi) 2d acústica con densidad constante, implementado sobre una unidad de procesamiento grafico (gpu)(Universidad Industrial de Santander, 2016) Sarmiento Peña, Juan David; Garcia Alarcon, Cristian Camilo; Abreo Carrillo, Sergio Alberto; Ramírez Silva, Ana BeatrizEl siguiente trabajo de investigación presenta una propuesta enfocada en realizar un análisis y mejora de desempe˜no de un algoritmo de inversión de onda completa (FWI, por sus siglas en inglés) 2D acística con densidad constante, implementado sobre una unidad de procesamiento gráfico (GPU, por sus siglas en inglés), específicamente en una Nvidia GeForce GTX 970. Entiéndase como mejora una disminución del tiempo de ejecución, disminución de los requerimientos de memoria y una mejor utilización de los recursos de la GPU (ocupación). El lenguaje de programación usado es CUDA-C, una variación del lenguaje C que permite implementar funciones especiales llamadas kernels que son ejecutadas en la GPU mientras que el código principal es ejecutado en la unidad de procesamiento central (CPU, por sus siglas en inglés), en pocas palabras, la GPU actía como un co-procesador del procesador central. En el análisis de desempe˜no se utilizan algunas herramientas de software y Hardware creadas por los desarrolladores de Nvidia, estas herramientas permiten obtener datos de desempe˜no del algoritmo (métricas), registrar actividades específicas, visualizar líneas de tiempo de las actividades de la CPU y GPU, entre otras. Todas, adquiridas durante tiempo de ejecución. El trabajo realizado se basó en un proceso de cuatro etapas, evaluación, paralelización, optimización e implementación (APOD, por sus siglas en ingles), se hicieron varias iteraciones en las cuales se hacia un peque˜no análisis, una propuesta de implementación y una breve evaluación de los resultados obtenidos.