Doctorado en Ingeniería: Área Ingeniería Electrónica
Permanent URI for this collection
Browse
Browsing Doctorado en Ingeniería: Área Ingeniería Electrónica by Issue Date
Now showing 1 - 20 of 42
Results Per Page
Sort Options
Item Reconocimiento de la expresión facial en secuencia de video usando parámetros basados en lbp(Universidad Industrial de Santander, 2015) Silva Cruz, Edwin Alberto; Plata Gómez, ArturoEn esta disertación se diseñó e implementó un sistema de reconocimiento de la expresión facial que realiza detección de rostro, extracción de parámetros, selección de parámetros y clasificación de la expresión con algoritmos eficientes de bajo costo de cálculo y memoria, con el fin de su aplicación en sistemas en tiempo real. Los parámetros extraídos son dinámicos, basados en patrones locales binarios y POEM (Patterns of Oriented Edge Magnitudes). El trabajo incluye la implementación de los algoritmos SFA-WM (Sequential Feature Analysis for extraction of Weak Metaclassifiers), que es un aporte original a la búsqueda de parámetros débiles, el algoritmo LC-NNMLE (Local Clustering-Nearest Neighbor MLE), para estimación de dimensión intrínseca, los códigos VPOEM y TPOEM, que probaron ser descriptores adecuados de la expresión facial. Además de pruebas de validación cruzada LSO, se realizaron pruebas de generalización entre bases de datos usando la base de datos KDEF. Los resultados fueron comparados con resultados del estado del arte, que muestran la validez de los parámetros y los sistemas de selección y clasificación con desempeño similar o superior al de la mayor parte de trabajos distinguidos en la bibliografía del tema.Item Optimización de aplicadores microondas, a través de algoritmos metaheurísticos, para la industria minera(Universidad Industrial de Santander, 2015) Amaya Contreras, Iván Mauricio; Correa Cely, Carlos Rodrigo; Peñaranda Foix, Felipe Laureano; Balbastre Tejedor, Juan Vicente; Lamos Díaz, Henry; Orozco Ospino, Eduardo AlbertoEsta tesis se enfoca al desarrollo de una estrategia de optimización que permita encontrar las dimensiones y frecuencia de resonancia de un aplicador microondas, tal que su distribución de campo corresponda a una definida por el usuario. Se reservan tres capítulos a discutir los pilares principales para establecer dicha estrategia: el modelo matemático de resonadores microondas analizados a través de análisis circuital, las propiedades dieléctricas experimentales de diferentes muestras minerales que cambian con la temperatura, y la formulación de diferentes técnicas de optimización moderna. Luego, se realizó la sinergia de esta información (es decir, el modelo, las propiedades, y los algoritmos de optimización). Se inicia por ejecutar algunas pruebas simples con los algoritmos, para determinar la mejor combinación de ellos. Posteriormente, se abordan algunos escenarios de diseño que incluyen materiales con y sin pérdidas. Se encontraron varias cosas de interés. Pero, la más relevante se refiere a la factibilidad de utilizar la estrategia propuesta. En algunos escenarios (especialmente a altas frecuencias) fue posible lograr un nivel de ajuste mayor a 50 [dB]. Sin embargo, en otros escenarios este valor cayó hasta 20 [dB] (especialmente, cerca del modo fundamental del aplicador). Esto significa que el modelo matemático debe ser refinado. Aun así, luego de comparar los datos respecto a software comercial (CST), se encontró que incluso en los casos donde CST sobrepasó a la estrategia propuesta en esta tesis, la segunda generó una distribución de campo más uniforme. Por tanto, se considera como exitosa la propuesta, así que se recomienda su uso y se sugiere que se trabaje en expandir el modelo a las direcciones restantes y a otros sistemas de coordenadas. Además, se sugiere incluir una métrica que considere el factor de forma de las distribuciones de campo, quizás a través de una suma ponderada.Item Reconocimiento de la expresión facial usando parámetros basados en LBP(Universidad Industrial de Santander, 2015) Silva Cruz, Edwin Alberto; Plata Gómez, Arturo; Loaiza Correa, Humberto; Vizcaya Guarín, Pedro Raúl; Argüello Fuentes, Henry; Meneses Fonseca, Jaime EnriqueEn esta disertación se diseñó e implementó un sistema de reconocimiento de la expresión facial que realiza detección de rostro, extracción de parámetros, selección de parámetros y clasificación de la expresión con algoritmos eficientes de bajo costo de cálculo y memoria, con el fin de su aplicación en sistemas en tiempo real. Los parámetros extraídos son dinámicos, basados en patrones locales binarios y POEM (Patterns of Oriented Edge Magnitudes). El trabajo incluye la implementación de los algoritmos SFA-WM (Sequential Feature Analysis for extraction of Weak Metaclassifiers), que es un aporte original a la búsqueda de parámetros débiles, el algoritmo LC-NNMLE (Local Clustering-Nearest Neighbor MLE ), para estimación de dimensión intrínseca, los códigos VPOEM y TPOEM, que probaron ser descriptores adecuados de la expresión facial. Además de pruebas de validación cruzada LSO, se realizaron pruebas de generalización entre bases de datos usando la base de datos KDEF. Los resultados fueron comparados con resultados del estado del arte, que muestran la validez de los parámetros y los sistemas de selección y clasificación con desempeño similar o superior al de la mayor parte de trabajos distinguidos en la bibliografía del tema.Item Microwave applicator optimization through metaheuristic algorithms for the mining industry(Universidad Industrial de Santander, 2015) Amaya Contreras, Iván Mauricio; Correa Cely, Carlos RodrigoEsta tesis se enfoca al desarrollo de una estrategia de optimización que permita encontrar las dimensiones y frecuencia de resonancia de un aplicador microondas, tal que su distribución de campo corresponda a una definida por el usuario. Se reservan tres capítulos a discutir los pilares principales para establecer dicha estrategia: el modelo matemático de resonadores microondas analizados a través de análisis circuital, las propiedades dieléctricas experimentales de diferentes muestras minerales que cambian con la temperatura, y la formulación de diferentes técnicas de optimización moderna. Luego, se realizó la sinergia de esta información (es decir, el modelo, las propiedades, y los algoritmos de optimización). Se inicia por ejecutar algunas pruebas simples con los algoritmos, para determinar la mejor combinación de ellos. Posteriormente, se abordan algunos escenarios de diseño que incluyen materiales con y sin pérdidas. Se encontraron varias cosas de interés. Pero, la más relevante se refiere a la factibilidad de utilizar la estrategia propuesta. En algunos escenarios (especialmente a altas frecuencias) fue posible lograr un nivel de ajuste mayor a 50 [dB]. Sin embargo, en otros escenarios este valor cayó hasta 20 [dB] (especialmente, cerca del modo fundamental del aplicador). Esto significa que el modelo matemático debe ser refinado. Aun así, luego de comparar los datos respecto a software comercial (CST), se encontró que incluso en los casos donde CST sobrepasó a la estrategia propuesta en esta tesis, la segunda generó una distribución de campo más uniforme. Por tanto, se considera como exitosa la propuesta, así que se recomienda su uso y se sugiere que se trabaje en expandir el modelo a las direcciones restantes y a otros sistemas de coordenadas. Además, se sugiere incluir una métrica que considere el factor de forma de las distribuciones de campo, quizás a través de una suma ponderada. 1Item Design and classification of antimicrobial and antibacterial peptides(Universidad Industrial de Santander, 2016) Rondón Villarreal, Nydia Paola; Sierra Bueno, Daniel Alfonso; Torres Sáez, Rodrigo GonzaloUno de los problemas de salud píblica más importantes es la resistencia a los antibióticos que poseen bacterias patógenas de gran impacto en la salud humana. El problema es tan importante que puede afectar a la medicina moderna, como por ejemplo, en el área de cirugías especializadas, debido al gran riesgo de adquirir una bacteria super resistente intrahospitalaria, que no pueda ser tratada con los antibiticos existentes. La situacin es bastante desalentadora, la resistencia a los antibiticos está creciendo a tasas alarmantes y el nímero de nuevos antibióticos desarrollados y probados ha disminuido en las íltimos décadas, básicamente por razones económicas y de regulación. En este sentido, míltiples empresas farmacéuticas han abandonado la investigación y el desarrollo de nuevos compuestos antimicrobianos. Sin embargo, en los íltimos a˜nos, un buen nímero de investigadores se ha enfocado en el desarrollo de nuevos antibióticos. Entre estos, los péptidos antimicrobianos (PAMs) han aparecido como una solución prometedora para combatir estas bacterias super resistentes. Por esta razón, míltiples esfuerzos teóricos se han llevado a cabo en el desarrollo de nuevas herramientas computacionales para el dise˜no racional de péptidos que sean mejores y más efectivos. En esta tesis, se proponen dos estrategias para dise˜nar nuevos péptidos antibacterianos potenciales. Adicionalmente, la toxicidad de los péptidos también fue considerada en una de las estrategias propuestas. Los resultados han sido bastante satisfactorios. Míltiples péptidos que fueron dise˜nados en esta tesis fueron sintetizados y probados a nivel experimental y han mostrado actividad contra tres bacterias resistentes a los antibióticos. Adicionalmente, se realizaron pruebas de toxicidad a los péptidos más activos, y resultaron ser no tóxicos en eritrocitos de carnero y en células de tejido de pulmón de la línea A549.Item Compresión de datos sísmicos para reducir la limitación del ancho de banda del puerto PCIe(Universidad Industrial de Santander, 2016) Fajardo Ariza, Carlos Augusto; Castillo Villar, Javier; Reyes Torres, Óscar Mauricio; Mozos Muñoz, Daniel; Sepúlveda Sepúlveda, Franklin Alexander; Aguilera Bermúdez, Ernesto; Argüello Fuentes, Henry; Contreras Ortiz, Sonia HelenaNosotros proponemos una estrategia para reducir el impacto del cuello de botella Entrada/Salida en un cluster heterogéneo, en el contexto de las aplicaciones sísmicos. La estrategia está basada en un proceso de compresión/descompresión optimizada. La estrategia comprime los datos en campo, mientras son adquiridos, usando un algoritmo de compresión optimizado. Las operaciones de transferencia desde la memoria principal hasta la memoria del nodo son ejecutadas usando los datos comprimidos para reducir el tiempo de transferencia. La descompresión de los datos es ejecutada dentro del nodo antes de que el dato sea procesado. La estrategia se diseñó para dos tipos de clústeres heterogéneos. El primer tipo de clúster usa GPUs y el segundo usa FPGAs. Por un lado, nuestros resultados muestran que las etapas secuenciales en el proceso de descompresión se convierten rápidamente en un cuello de botella en el cluster basado en GPUs. De otro lado, la implementación de la estrategia en un clúster basado en FPGAs, nos permitió proponer una arquitectura computacional especifica, la cual se optimizó para las etapas secuenciales del proceso de descompresión. La implementación de nuestra estrategia en un cluster con FPGAs puede acelerar el proceso de transferencia hasta 10× para una relación de compresión de 16 : 1 y hasta 3× para una relación de compresión de 7 : 1. Por consiguiente, nuestra estrategia efectivamente reduce el impacto del cuello de botella de Entrada/Salida de datos y puede mejorar el rendimiento general de un cluster basado en FPGAs.Item Seismic data compression to reduce the pcie bandwidth limitation(Universidad Industrial de Santander, 2016) Fajardo Aríza, Carlos Augusto; Castillo Villar, Javier; Reyes Torres, Óscar MauricioNosotros proponemos una estrategia para reducir el impacto del cuello de botella Entrada/Salida en un cluster heterogéneo, en el contexto de las aplicaciones sísmicas. La estrategia está basada en un proceso de compresión/descompresión optimizado. La estrategia comprime los datos en campo, mientras son adquiridos, usando un algoritmo de compresión optimizado. Las operaciones de transferencia desde la memoria principal hasta la memoria del nodo son ejecutadas usando los datos comprimidos para reducir el tiempo de transferencia. La descompresión de los datos es ejecutada dentro del nodo antes de que el dato sea procesado. La estrategia se dise˜nó para dos tipos de clusters heterogeneos. El primer tipo de clíster usa GPUs y el segundo usa FPGAs. Por un lado, nuestros resultados muestran que las etapas secuenciales en el proceso de descompresión se convierten rápidamente en un cuello de botella en el cluster basado en GPUs. De otro lado, la implementación de la estrategia en un clíster basado en FPGAs, nos permitió proponer una arquitectura computacional específica, la cual se optimizó para las etapas secuenciales del proceso de descompresión. La implementación de nuestra estrategia en un cluster con FPGAs puede acelerar el proceso de transferencia hasta 10× para una relación de compresión de 16 : 1 y hasta 3× para una relación de compresión de 7 : 1. Por consiguiente, nuestra estrategia efectivamente reduce el impacto del cuello de botella de Entrada/Salida de datos y puede mejorar el rendimiento general de un cluster basado en FPGAs.Item Diseño y clasificación de péptidos antimicrobianos y antibacterianos(Universidad Industrial de Santander, 2016) Rondón Villarreal, Nydia Paola; Sierra Bueno, Daniel Alfonso; Torres Sáez, Rodrigo Gonzalo; Martínez Pérez, Francisco José; Ramos Pollán, Raúl; Pedraza Ferreira, Gabriel Rodrigo; Torrents Arenales, DavidUno de los problemas de salud pública más importantes es la resistencia a los antibióticos que poseen bacterias patógenas de gran impacto en la salud humana. El problema es tan importante que puede afectar a la medicina moderna, como, por ejemplo, en el área de cirugías especializadas, debido al gran riesgo de adquirir una bacteria super resistente intrahospitalaria, que no pueda ser tratada con los antibióticos existentes. La situación es bastante desalentadora, la resistencia a los antibióticos esta´ creciendo a tasas alarmantes y el número de nuevos antibióticos desarrollados y probados ha disminuido en las últimas décadas, básicamente por razones económicas y de regulación. En este sentido, múltiples empresas farmacéuticas han abandonado la investigación y el desarrollo de nuevos compuestos antimicrobianos. Sin embargo, en los últimos años, un buen número de investigadores se ha enfocado en el desarrollo de nuevos antibióticos. Entre estos, los péptidos antimicrobianos (PAMs) han aparecido como una solución prometedora para combatir estas bacterias super resistentes. Por esta razón, múltiples esfuerzos teóricos se han llevado a cabo en el desarrollo de nuevas herramientas computacionales para el diseño racional de péptidos que sean mejores y más efectivos. En esta tesis, se proponen dos estrategias para diseñar nuevos péptidos antibacterianos potenciales. Adicionalmente, la toxicidad de los péptidos también fue considerada en una de las estrategias propuestas. Los resultados han sido bastante satisfactorios. Múltiples péptidos que fueron diseñados en esta tesis fueron sintetizados y probados a nivel experimental y han mostrado actividad contra tres bacterias resistentes a los antibióticos. Adicionalmente, se realizaron pruebas de toxicidad a los péptidos más activos, y resultaron ser no tóxicos en eritrocitos de carnero y en células de tejido de pulmón de la línea A549.Item Modelo in silico de evolución dirigida para genes cry11 de bacillus thuringiensis(Universidad Industrial de Santander, 2017) Pinzón Reyes, Efraín Hernando; Sierra Bueno, Daniel Alfonso; Flórez Escobar, Álvaro MauricioEl presente trabajo de investigación propone un modelo in silico del proceso completo de la técnica de evolución dirigida. El modelo integra la selección de genes parentales, la generación de diversidad mediante el barajado de ADN y la selección de variantes candidatas. Para ello, el modelo aprovecha el método de mínima energía como elemento integrador mediante el cual puede también incorporar los efectos de la formación de estructuras secundarias de ADN en el proceso. El modelo fue usado para estudiar la familia de genes cry11 de Bacillus thuringiensis y predecir bibliotecas quiméricas de genes ensamblados. Dentro de los principales hallazgos se encuentran la obtención de bibliotecas quiméricas in silico de potenciales variantes Cry11 y la caracterización de los genes desde sus propiedades intrínsecas para reaccionar ante condiciones experimentales de evolución dirigida, explicada desde una perspectiva evolutiva entre las diferentes familias Cry. Estas innovaciones trazan dos nuevas líneas de trabajo: la evolución dirigida in silico y la caracterización de genes parentales a partir de sus variaciones termodinámicas para participar de forma eficiente en experimentos de barajado de ADN. Ambas líneas fortalecen desde lo computacional el campo de estudio de la ingeniería de proteínas, superando las limitaciones de los modelos de mutagénesis asistida por computador, cuyo punto de partida son las bibliotecas quiméricas in vitro, mientras que el modelo aquí reportado permite la predicción de estas bibliotecas quiméricas y su posterior análisis, siendo la primer aproximación de la cual se tiene conocimiento para realizar evolución dirigida in silico.Item Modelo in silico de evolución dirigida para genes Cry11 de Bacillus thuringiensis(Universidad Industrial de Santander, 2017) Pinzón Reyes, Efraín Hernando; Sierra Bueno, Daniel Alfonso; Flórez Escobar, Álvaro Mauricio; Argüello Fuentes, Henry; Martínez Pérez, Francisco José; Muskus López, Carlos Enrique; Ramos Pollán, Raúl; Alzate Morales, JansEl presente trabajo de investigación propone un modelo in silico del proceso completo de la técnica de evolución dirigida. El modelo integra la selección de genes parentales, la generación de diversidad mediante el barajado de ADN y la selección de variantes candidatas. Para ello, el modelo aprovecha el método de mínima energía como elemento integrador mediante el cual puede también incorporar los efectos de la formación de estructuras secundarias de ADN en el proceso. El modelo fue usado para estudiar la familia de genes cry11 de Bacillus thuringiensis y predecir bibliotecas quiméricas de genes ensamblados. Dentro de los principales hallazgos se encuentran la obtención de bibliotecas quiméricas in silico de potenciales variantes Cry11 y la caracterización de los genes desde sus propiedades intrínsecas para reaccionar ante condiciones experimentales de evolución dirigida, explicada desde una perspectiva evolutiva entre las diferentes familias Cry. Estas innovaciones trazan dos nuevas líneas de trabajo: la evolución dirigida in silico y la caracterización de genes parentales a partir de sus variaciones termodinámicas para participar de forma eficiente en experimentos de barajado de ADN. Ambas líneas fortalecen desde lo computacional el campo de estudio de la ingeniería de proteínas, superando las limitaciones de los modelos de mutagénesis asistida por computador, cuyo punto de partida son las bibliotecas quiméricas in vitro, mientras que el modelo aquí reportado permite la predicción de estas bibliotecas quiméricas y su posterior análisis, siendo la primer aproximación de la cual se tiene conocimiento para realizar evolución dirigida in silico.Item Evaluación de métricas en dominios transformados usadas en las metaheurísticas para generar un punto de partida favorable a la inversión de onda completa 2d(Universidad Industrial de Santander, 2017) Serrano Luna, Jheyston Omar; Abreo Carrillo, Sergio Alberto; Ramírez Silva, Ana BeatrizLa industria del petr´oleo est´a interesada en la b´usqueda de mejores m´etodos para estimar los par´ametros del subsuelo a partir de los datos obtenidos durante una exploraci´on s´ısmica. Los par´ametros del subsuelo se utilizan para encontrar im´agenes de reflectividad de la tierra que indica la existencia de un yacimiento de petr´oleo o gas. Estos par´ametros del subsuelo deben estimarse correctamente de tal manera que la imagen resultante sea correcta. La t´ecnica de inversi´on de onda completa (FWI) es una herramienta que permite obtener una imagen de alta resoluci´on del subsuelo. Actualmente se est´a realizando un gran esfuerzo para industrializar esta t´ecnica, que tiene dos desventajas: su elevado costo computacional y su sensibilidad a la elecci´on del punto de partida. Algunas estrategias son usadas para establecer el punto de partida: m´etodos anal´ıticos, tomograf´ıas y m´etodos de optimizaci´on global. Los m´etodos de optimizaci´on global son t´ecnicas bioinspiradas que ofrecen muy buenos resultados cuando no es viable implementar el m´etodo ´optimo, son de f´acil implementaci´on y necesitan de alguna m´etrica para su avance en su b´usqueda sobre la funci´on objetivo. El objetivo principal de este trabajo de maestr´ıa es explorar distintos dominios transformados y generar una metodolog´ıa para la construcci´on de una m´etrica que junto con el m´etodo de optimizaci´on global genere un punto de partida favorable para la FWI. Con el fin de medir si el modelo obtenido por la metaheur´ısticas es favorable, nosotros estudiamos el cycle skipping (CS) en 3 dominios: tiempo, frecuencia y traza compleja.Item Automatic disaggregation of residential electrical consumption with non-intrusive methods(Universidad Industrial de Santander, 2018) Jiménez Manjarres, Yulieth; Carrillo Caicedo, Gilberto; Petit Suárez, Johann Farith; Duarte Gualdrón, César AntonioLa informacion detallada de los electrodomésticos individuales en el hogar, llamada desagre- ´ gacion de carga, puede motivar el ahorro energético y apoyar planes de gestión de demanda. Estaénformacion se puede estimar mediante sistemas de Monitorización No intrusiva de Carga (NILM, ´ por sus siglas en ingles), realizan procesamiento de se ´ nales y modelado matem ˜ atico a partir de ´ mediciones electricas en un solo punto. Bajo la premisa de que las se ´ nales de los electrodom ˜ esticos ´ tienen caracter´ısticas distintivas, denominadas firmas de carga, un enfoque es discriminar los electrodomesticos mediante técnicas de inteligencia artificial. Aunque la investigación en estaárea está´ en crecimiento, aun se detectan algunas brechas en la literatura cient ´ ´ıfica y esta tesis contribuye al conocimiento en varios aspectos. Primero, se presenta un marco para implementar sistemas NILM. Segundo, se propone un sistema basado en eventos que comprende las etapas de deteccion´ de eventos, extraccion más efectiva de caracter ´ ´ısticas transitorias basadas en el dominio del tiempo y de la transformada S, clasificacion a través de un enfoque no tradicional y estimación de poten- ´ cia mediante la dependencia de la tension. Tercero, se evalúa la capacidad de discriminación de ´ las firmas de carga para determinar el impacto del punto de los factores de impacto mencionados. Finalmente, se construyo una base de datos de medidas de aparatos residenciales bajo diferenteséscenarios de tension de alimentación, impedancia y operación de los aparatos. As ´ ´ı, estos sistemas NILM se vislumbran como aplicaciones de hogares inteligentes.Item Reconstruction algorithm optimization and system matrix design in compressive spectral imaging(Universidad Industrial de Santander, 2018) Mejía Melgarejo, Yuri Hercilia; Arguello Fuentes, HenryLos sensores compresivos de imágenes espectrales reducen el número de pixeles muestreados mediante la combinación de información espectral codificada de una escena en proyecciones bidimensionales. El diseño de la matriz de muestreo que modela el sensor y la optimización del algoritmo de reconstrucción son áreas importantes de investigación hoy en día. Este trabajo desarrolla algunos enfoques de diseño de la matriz de muestreo para sistemas compresivos de imágenes espectrales, además de propuestas para la mejorar el algoritmo de reconstrucción. El diseño de la matriz consiste en el estudio de la independencia lineal de las filas de la matriz de muestreo y su relación con los valores propios, dando lugar a restricciones físicas en los sensores. Estos diseños también se estudian en el caso en el que se reconstruye una imagen espectral a partir de la fusión de las medidas de dos sensores compresivos. Por otro lado, en la optimización del algoritmo de reconstrucción se explota el hecho de que las imágenes espectrales son suaves en el dominio espacial. Primero, se propone un filtrado pasa bajas dentro del proceso iterativo de los algoritmos de reconstrucción y segundo, se reformula un problema de minimización con un regularizador que promueve suavidad en la imagen y resolviendo por un enfoque Bayesiano.Item Optimización del algoritmo de reconstrucción y diseño de la matriz del sistema en adquisición compresiva de imágenes espectrales(Universidad Industrial de Santander, 2018) Mejía Melgarejo, Yuri Hercilia; Argüello Fuentes, Henry; Bautista Rozo, Lola Xiomara; Pertuz Arroyo, Said David; Meneses Fonseca, Jaime Enrique; Vera Rojas, Esteban Mauricio; Tourneret, Jean-YvesLos sensores compresivos de imágenes espectrales reducen el número de pixeles muestreados mediante la combinación de información espectral codificada de una escena en proyecciones bidimensionales. El diseño de la matriz de muestreo que modela el sensor y la optimización del algoritmo de reconstrucción son áreas importantes de investigación hoy en día. Este trabajo desarrolla algunos enfoques de diseño de la matriz de muestreo para sistemas compresivos de imágenes espectrales, además de propuestas para la mejorar el algoritmo de reconstrucción. El diseño de la matriz consiste en el estudio de la independencia lineal de las filas de la matriz de muestreo y su relación con los val-ores propios, dando lugar a restricciones físicas en los sensores. Estos diseños también se estudian en el caso en el que se reconstruye una imagen espectral a partir de la fusión de las medidas de dos sensores compresivos. Por otro lado, en la optimización del algoritmo de reconstrucción se explota el hecho de que las imágenes espectrales son suaves en el dominio espacial. Primero, se propone un filtrado pasa bajas dentro del proceso iterativo de los algoritmos de reconstrucción y segundo, se reformula un problema de minimización con un regularizador que promueve suavidad en la imagen y resolviendo por un enfoque Bayesiano.Item Tuning up global optimization techniques to solve the reliability problem in nonlinear geophysical inversions(Universidad Industrial de Santander, 2018) Abreo Carrillo, Sergio Alberto; Reyes Torres, Óscar Mauricio; Ramírez Silva, Ana BeatrizLa inversión de datos geofísicos es un proceso que implica la solución de un problema no-lineal, que usualmente esta mal puesto y demanda un elevado costo computacional. Es por ello, que en el estado del arte se han desarrollado diferentes técnicas para tratar de resolver este problema. En este trabajo doctoral, se propone una metodología novedosa en la que el proceso de inversión de datos geofísicos se aborda desde el punto de vista de la optimización; usando una técnica de optimización global (optimización por enjambre de partículas, PSO por su nombre en ingles) en conjunto con una técnica de optimización local (inversión de onda completa, FWI por su nombre en ingles) para tratar de resolver el problema. Además, se propone el uso de la transformada de Hilbert en conjunto con la matriz Hessiana para identificar la calidad de los resultados. La metodología propuesta utiliza arquitecturas de cómputo en paralelo (unidades de procesamiento gráfico, GPU por su nombre en ingles) para reducir el costo computacional de las tres etapas formuladas. La validación de la metodología se hace a través del uso de cuatro modelos geológicos sintéticos de prueba, los cuales se pueden considerar como complejos debido a que contienen variaciones laterales y verticales de velocidad, zonas de falla e intrusiones de alta velocidad (IAV). Los modelos elegidos son: el Marmousi, Canadian foothills, Hess y BP. La metodología propuesta en esta tesis doctoral prueba que es posible usar PSO en conjunto con la FWI para obtener resultados muy buenos en modelos geológicos con IAV menores o iguales al 6% del area de interés presentando dificultades para IAV mayores al 20%. Además, la información ofrecida por la transformada de Hilbert permitió identificar cuando el proceso de inversión estaba avanzando correcta o incorrectamente.Item Optimización del tiempo de ejecución del algoritmo RTM 3D sobre una plataforma GPU(Universidad Industrial de Santander, 2019) Salamanca Becerra, William Alexander; Vivas Mejía, Flor Alba; Ramírez Silva, Ana Beatriz; Fajardo Ariza, Carlos Augusto; Rodríguez Ferreira, Julián Gustavo; Pedraza Ferreira, Gabriel Rodrigo; Agudelo Zambrano, William Mauricio; da Cruz Pestana, ReynamLa exploración sísmica permite tomar decisiones importantes en la industria del petróleo gracias a la estimación de propiedades y a la información estructural del subsuelo obtenidas mediante procesamiento de datos sísmicos. La migración sísmica reversa en tiempo (RTM) es la técnica que mejores resultados ofrece en la generación de la imagen final; pero así mismo es una de las técnicas más costosas del procesamiento de datos. Durante el desarrollo de la tesis, se estudiaron aspectos de la implementación del algoritmo RTM como: la ecuación de onda, su solución numérica mediante GPU, la dependencia de datos en RTM, las estrategias de manejo de memoria y la estimación del tiempo de ejecución del algoritmo mediante modelos matemáticos. Éstos últimos fueron empleados para la medición del desempeño de la implementación y la medición de la aceleración después de cada optimización. Los principales aportes de la tesis en el área geofísica se concen-traron en el análisis de estrategias de manejo de memoria, principalmente la estrategia de fronteras aleatorias que reduce la cantidad de cómputo y memoria significativamente; mientras que en computación, el aporte fue el desarrollo e implementación de modelos de predicción de tiempos de ejecución para medir objetivamente el rendimiento de la implementación.Item Circuitos y técnicas de diseño para seguridad de la información en un sistema integrado(Universidad Industrial de Santander, 2019) Gómez Ortiz, Héctor Iván; Roa Fuentes, Élkim Felipe; Reyes Torres, Óscar Mauricio; Núñez de Villavicencio Martínez, Luis Alberto; Núñez de Villavicencio Martínez, Luis Alberto; Lamos Díaz, Henry; Lamos Díaz, Henry; Amaya Palacio, José Alejandro; Amaya Palacio, José Alejandro; Chacón Rodríguez, Alfonso; Arnaud, AlfredoLa tendencia al aumento de dispositivos electrónicos interconectados crea varios desafíos técnicos. Uno de ellos es garantizar la privacidad de la información, considerando como la información podría extenderse a través de diferentes canales antes de llegar a su destino final. La garantía de privacidad implica diferentes primitivas de seguridad de hardware / software, como la generación y el establecimiento de claves. Estas dos primitivas desempeñan un papel funda-mental, ya que las operaciones en cualquier algoritmo criptográfico se basan en claves de alta calidad y en el establecimiento de una clave de sesión, o tener una clave secreta común. La protección de la propiedad intelectual es otra preocupación de la industria actual; el acceso físico a los dispositivos permite un escenario ideal para desarrollar ingeniería inversa. La ingeniería inversa podría conducir a la extracción sin la autorización adecuada de funcionalidades o datos confidenciales que podrían usarse para explotar vulnerabilidades y obtener acceso restringido, o para realizar ataques sofisticados. Este trabajo presenta tres contribuciones probadas en el área de seguridad de la información a nivel de circuito abordando los desafíos mencionados anteriormente. La primera contribución comprueba la implementación de un establecimiento de clave ligero con una función de cambio de clave rápido, donde se proponen dos implementaciones a nivel de circuito para acelerar la función de cambio de clave y proporcionar ofuscación. La segunda contribuci´on se enfoca en generadores de verdaderos números aleatorios (TRNG) totalmente sintetizables para la generación de claves de costo bajo. Presentamos dos nuevas arquitecturas para TRNG totalmente sintetizadas junto con un método para captar la entropía, utilizando dos fuentes de entropía, considerando que un avance reciente prueba que la extracción de números verdaderamente aleatorios requiere más de una fuente de entropía. La tercera contribuci´on propone una técnica para evitar la ingeniería inversa mediante el uso de la ofuscación a nivel de layout. Finalmente, más allá del alcance del trabajo propuesto, también abordamos un problema de seguridad en las memorias DRAM. Algunos chips DRAM modernos experimentan el llamado error de martilleo de filas que permite infracciones de seguridad. Para contrarrestar este ataque desarrollamos una estrategia novedosa a nivel de hardware para mitigar los ataques de martilleo de filas basados en una celda ficticia. La estructura propuesta ofrece un mecanismo de alerta para activar las operaciones de actualización del controlador de memoria, evitando el cambio de bits o la perdida de información, mientras se realiza un ataque de martilleo de filas.Item Caracterización experimental de la turbulencia a grandes distancias horizontales y baja altura mediante la técnica de Telescopía de Fourier(Universidad Industrial de Santander, 2020) Tíjaro Rojas, Omar Javier; Torres Moreno, Yezid; Ramírez Silva, Ana Beatriz; Rodríguez Ferreira, Julián Gustavo; Torres Amarís, Rafael Ángel; Plata Gómez, Arturo; Solarte Rodríguez, Efraín; Amaya Robayo, Dafne CeciliaEsta tesis presenta la técnica de Telescopía de Fourier probada experimentalmente a tres distancias diferentes de propagación horizontal y cerca del suelo para la caracterización de la turbulencia, la cual está apoyada en mediciones a partir de sensores de variables físicas adicionales donde se observan las condiciones ambientales. El diseño de este método se basa en la integración de montajes ópticos y electrónicos para poder llevar a cabo el registro y posterior análisis de las mediciones, en dónde el láser fue caracterizado con relación a los efectos más importantes que este produce y por el cual afecta las mediciones de la turbulencia. El hardware y software aquí utilizado se diseñó especialmente para que las mediciones en campo se pudieran adaptar fácilmente a la alimentación con baterías. Los cálculos registrados de las variables de medición de turbulencia fueron ejecutados a partir de Matlab ® y las simulaciones se ejecutaron a partir del apoyo recibido por la “Florida Atlantic University” (FAU) y el “Department of Computer & Electrical Engineering and Computer Science”, con los algoritmos brindados. Esta técnica sirve para la medición de estos parámetros, rescatando las características que se aprendieron en esta tesis para aplicaciones de seguridad en donde se necesite por ejemplo detección de objetos a larga distancia, pues el periodo espacial, de las franjas proyectadas a 134.8 metros de propagación, estuvo en el orden de los cientos de nanómetros, lo cual origina una fuerte motivación para continuar trabajando en este tema.Item Técnicas de diseño para mitigar el impacto de las variaciones PVT en circuitos nanométricos(Universidad Industrial de Santander, 2020) Amaya Beltrán, Andrés Felipe; Roa Fuentes, Élkim Felipe; Reyes Torres, Óscar Mauricio; Amaya Palacio, José Alejandro; Pertuz Arroyo, Said David; Chacón Rodríguez, Alfonso; Eslava Garzón, Johan SebastiánEl impacto de las variaciones del proceso de fabricación, la temperatura de operación y la tensión de alimentación (PVT) en el rendimiento de Systems-on-Chip (SoC) generalmente se mitiga mediante algoritmos de calibración. Estos algoritmos (ejecutados generalmente en segundo plano) utilizan datos de sen-sors PVT para ajustar la operación a expensas de hardware adicional, latencia y consumo de energía. Este trabajo presenta tres técnicas de diseño novedosas y de baja complejidad para reducir la incidencia de variaciones PVT globales, locales y aleatorias en el rendimiento de un SoC. La primera alternativa aborda la calibración de offset en ecualizadores de retroalimentación de decisión (DFE), utilizados en en-laces seriales. El offset se detecta en el dominio de fase utilizando un detector de fase en la salida del comparador. Esta detección permite eliminar la conexión clásica de modo común en la entrada del comparador. El método permite la implementación de una calibración sobre la marcha sin afectar la carga en la ruta de la señal. La segunda técnica consiste en un algoritmo de calibración para ajustar la no linealidad diferencial (DNL) en convertidores digital-analógico capacitivo. El algoritmo reduce la necesidad de conectar la matriz capacitiva a Vcm mientras se calibra, lo que reduce la complejidad del circuito, la potencia y el consumo de área. La tercera técnica se concentra en mejorar la robustez de la estabilidad de los reguladores lineales. La estabilidad de frecuencia se ve mejorada por dos aspectos: un compensador de Adelanto-atraso, y un esquema adaptativo para la corriente de polarización y el tamaño del transistor de potencia. El compensador se implementa usando la resistencia en serie equivalente del capacitor externo. Además, una estimación de subimpulso realizada por el detector de brown-out de unidades de administración de energía convencionales establece la corriente de polarización y el tamaño del transistor de paso.Item Caracterización experimental de la turbulencia a grandes distancias horizontales y baja altura mediante la técnica de telescopía de Fourier(Universidad Industrial de Santander, 2020) Tíjaro Rojas, Omar Javier; Torres Moreno, Yezid; Ramírez Silva, Ana BeatrizEsta tesis presenta la técnica de Telescopía de Fourier probada experimentalmente a tres distancias diferentes de propagación horizontal y cerca del suelo para la caracterización de la turbulencia, la cual está apoyada en mediciones a partir de sensores de variables físicas adicionales donde se observan las condiciones ambientales. El diseño de este método se basa en la integración de montajes ópticos y electrónicos para poder llevar a cabo el registro y posterior análisis de las mediciones, en dónde el láser fue caracterizado con relación a los efectos más importantes que este produce y por el cual afecta las mediciones de la turbulencia. El hardware y software aquí utilizado se diseñó especialmente para que las mediciones en campo se pudieran adaptar fácilmente a la alimentación con baterías. Los cálculos registrados de las variables de medición de turbulencia fueron ejecutados a partir de Matlab ® y las simulaciones se ejecutaron a partir del apoyo recibido por la “Florida Atlantic University” (FAU) y el “Department of Computer & Electrical Engineering and Computer Science”, con los algoritmos brindados. Esta técnica sirve para la medición de estos parámetros, rescatando las características que se aprendieron en esta tesis para aplicaciones de seguridad en donde se necesite por ejemplo detección de objetos a larga distancia, pues el periodo espacial, de las franjas proyectadas a 134.8 metros de propagación, estuvo en el orden de los cientos de nanómetros, lo cual origina una fuerte motivación para continuar trabajando en este tema.
- «
- 1 (current)
- 2
- 3
- »