Doctorado en Ingeniería: Área Ingeniería Electrónica

Browse

Recent Submissions

Now showing 1 - 20 of 40
  • Item
    Inversión del campo de ondas sísmicas PP y tiempos de llegada de ondas convertidas PS para la estimación de un modelo de velocidades P y S en el subsuelo: Un enfoque Level Set
    (Universidad Industrial de Santander, 2024-03-06) Niño Niño, Carlos Andrés; Sierra Bueno, Daniel Alfonso; Agudelo Zambrano, William Mauricio; Duarte Gualdrón, César Antonio; Ramírez Silva, Ana Beatriz; Aguilera Bermúdez, Ernesto; Meneses Fonseca, Jaime Enrique; Trad, Daniel; Cabrera Zambrano, Francisco Henry
    La velocidad de onda cortante (Vs) es una propiedad fundamental de los medios elásticos cuya estimación a partir de ondas convertidas PS es desafiante y requiere modelar la interfaz donde ocurre la conversión de P a S. Este artículo presenta una tomografía PS donde los puntos de conversión/reflexión de ondas sísmicas corresponden al reflector geológico modelado con la función Level set en su nivel cero (ϕ(x,z)=0). El método propuesto pretende una inversión estable de Vs en un entorno de adquisición sísmica utilizando receptores multicomponente. Se utilizan modelos sintéticos que simulan verdaderos Vs, Vp y la ubicación del reflector geológico. Los tiempos de viaje de las ondas PS convertidas y las ondas PP reflejadas, tanto para datos observados como modelados (problema directo), se calculan utilizando la metodología propuesta por Rawlinson y Sambridge. Este método utiliza los tiempos de llegada de las ondas P desde la fuente sísmica hasta cada punto en el reflector como tiempos iniciales, que originan los tiempos Tps y Tpp. Estos tiempos se determinan como soluciones a la ecuación eikonal mediante el método Fast Marching. La metodología plantea un funcional definido a partir de los residuales de los tiempos de viaje (modelados-observados), en función de las variables ϕ, Vs y Vp. Se propone minimizar el funcional utilizando el método de variaciones sobre el funcional aumentado, basado en el Lagrangiano asociado. La inversión toma los multiplicadores de Lagrange como variables adjuntas que actualizan las variables Vs, Vp, y ϕ(x,z), haciendo que los residuales de los tiempos se minimizen en cada iteración. El rendimiento del algoritmo se evalúa para modelos con geometrías de reflectores sinclinales, sinusoidales y monoclinas. La tomografía propuesta estima Vs y las posiciones de los reflectores, lo que puede contribuir a corregir las estáticas y mejorar la caracterización litológica de la superficie cercana.
  • Item
    Caracterización experimental de la turbulencia a grandes distancias horizontales y baja altura mediante la técnica de telescopía de Fourier
    (Universidad Industrial de Santander, 2020) Tíjaro Rojas, Omar Javier; Torres Moreno, Yezid; Ramírez Silva, Ana Beatriz
    Esta tesis presenta la técnica de Telescopía de Fourier probada experimentalmente a tres distancias diferentes de propagación horizontal y cerca del suelo para la caracterización de la turbulencia, la cual está apoyada en mediciones a partir de sensores de variables físicas adicionales donde se observan las condiciones ambientales. El diseño de este método se basa en la integración de montajes ópticos y electrónicos para poder llevar a cabo el registro y posterior análisis de las mediciones, en dónde el láser fue caracterizado con relación a los efectos más importantes que este produce y por el cual afecta las mediciones de la turbulencia. El hardware y software aquí utilizado se diseñó especialmente para que las mediciones en campo se pudieran adaptar fácilmente a la alimentación con baterías. Los cálculos registrados de las variables de medición de turbulencia fueron ejecutados a partir de Matlab ® y las simulaciones se ejecutaron a partir del apoyo recibido por la “Florida Atlantic University” (FAU) y el “Department of Computer & Electrical Engineering and Computer Science”, con los algoritmos brindados. Esta técnica sirve para la medición de estos parámetros, rescatando las características que se aprendieron en esta tesis para aplicaciones de seguridad en donde se necesite por ejemplo detección de objetos a larga distancia, pues el periodo espacial, de las franjas proyectadas a 134.8 metros de propagación, estuvo en el orden de los cientos de nanómetros, lo cual origina una fuerte motivación para continuar trabajando en este tema.
  • Item
    Robust control approach for multivariable systems under delays, parametric uncertainty and external disturbances
    (Universidad Industrial de Santander, 2020) Carreño Zagarra, José Jorge; Villamizar Mejía, Rodolfo
    Esta disertaci ón propone un nuevo esquema de control para sistemas multivariables con o sin retardos de tiempos, perturbaciones externas e incertidumbre param ´ etrica. La metodología de diseño combina el enfoque de control robusto para sistemas inciertos y el uso de observadores de alta ganancia para la estimación y atenuación de perturbaciones en línea. En la etapa de control feedback se propone el uso de controladores QFT, controladores PI robustos de 2 grados de libertad y controladores reset, con el fin de lograr especificaciones robustas de rendimiento y estabilidad en presencia de incertidumbre en los parámetros del modelo de planta. En la etapa de control feedforward se plantea el diseño de observadores GPI ya que debido a su característica de reconstrucci ón de variables de fase y estimación de un número finito de derivadas de la perturbaci ón proporcionan propiedades de mitigaci ón o rechazo de perturbaciones, seguimiento de trayectoria, rendimiento robusto y estabilizaci ón de salida. El esquema de control propuesto fue validado con ´ exito en un fotobiorreactor experimental disponible en la Universidad de Almería (Espa˜ na), en donde se obtuvo una mejora significativa en la precisi ón de la regulaci ón del pH del cultivo de microalgas y, en consecuencia, una influencia positiva en la producción de biomasa. También se realizaron validaciones num´ ericas en modelos multivariables no lineales, que incluye un proceso de refrigeraci ón de un ciclo, un modelo de turbina e´ olica marina disponible en la Universidad de Stuttgart (Alemania) y el modelo UVA/Pádova de la Universidad de Virginia (EEUU) para la regulaci ón de glucosa en pacientes con diabetes Mellitus tipo 1. En todos los casos se verifica que el esquema de control propuesto presenta estabilidad y desempeño robusto a pesar de las perturbaciones externas, incertidumbre param´ etrica y retardos de tiempo.
  • Item
    Design techniques to mitigate the impact of pvt-variations in nanometer circuits
    (Universidad Industrial de Santander, 2020) Amaya Beltrán, Andrés Felipe; Roa Fuentes, Élkim Felipe
    El impacto de las variaciones del proceso de fabricaci ón, la temperatura de operaci ón y la tensi ón de alimentación (PVT) en el rendimiento de Systems-on- Chip (SoC) generalmente se mitiga mediante algoritmos de calibraci ón. Estos algoritmos (ejecutados generalmente en segundo plano) utilizan datos de sensors PVT para ajustar la operaci ón a expensas de hardware adicional, latencia y consumo de energía. Este trabajo presenta tres t écnicas de diseño novedosas y de baja complejidad para reducir la incidencia de variaciones PVT globales, locales y aleatorias en el rendimiento de un SoC. La primera alternativa aborda la calibraci ón de offset en ecualizadores de retroalimentaci ón de decisi ón (DFE), utilizados en enlaces seriales. El offset se detecta en el dominio de fase utilizando un detector de fase en la salida del comparador. Esta detección permite eliminar la conexi ón cl ásica de modo común en la entrada del comparador. El método permite la implementación de una calibraci ón sobre la marcha sin afectar la carga en la ruta de la se˜ nal. La segunda t écnica consiste en un algoritmo de calibraci ón para ajustar la no linealidad diferencial (DNL) en convertidores digital-anal ógico capacitivo. El algoritmo reduce la necesidad de conectar la matriz capacitiva a Vcm mientras se calibra, lo que reduce la complejidad del circuito, la potencia y el consumo de área. La tercera t écnica se concentra en mejorar la robustez de la estabilidad de los reguladores lineales. La estabilidad de frecuencia se ve mejorada por dos aspectos: un compensador de Adelanto-atraso, y un esquema adaptativo para la corriente de polarizaci ón y el tamaño del transistor de potencia. El compensador se implementa usando la resistencia en serie equivalente del capacitor externo. Además, una estimación de subimpulso realizada por el detector de brown-out de unidades de administraci ón de energía convencionales establece la corriente de polarizaci ón y el tamaño del transistor de paso.
  • Item
    Coded aperture design for adaptive compressive spectral imaging
    (Universidad Industrial de Santander, 2020) Díaz Díaz, Nelson Eduardo; Arguello Fuentes, Henry
    La adquisición de imágenes espectrales de manera tradicional es un proceso lento debido a que se requiere escanear la escena bajo estudio. En contraste, obtener imágenes espectrales comprimidas (compressive spectral imaging, CSI por sus siglas en inglés) ha atraído un gran interés porque reduce el número de muestras respecto a los sistemas de escaneo para capturar el cubo de datos, esto mejora la velocidad de muestreo. CSI mide proyecciones lineales de una escena, y luego un algoritmo de reconstrucción estima la escena subyacente. Una arquitectura ejemplo de CSI es el sistema de adquisición espectral comprimido de única captura con apertura de color (Colored coded aperture compressive spectral imager, C-CASSI, por sus siglas en inglés) que emplea un arreglo de filtros como códigos de apertura para codificar espacial y espectralmente la luz que entra en el sistema. Dichos códigos de apertura son equivalentes a la matriz de muestreo del sistema, su función es obtener medidas de la señal. Al día de hoy los trabajos relacionados con C-CASSI han usado códigos de apertura no adaptados. Específicamente, el muestreo no adaptado ignora la información a priori acerca de la señal para diseñar los patrones de codificación. Por lo tanto, este trabajo propone tres métodos diferentes para diseñar de forma adaptativa la apertura codificada de colores aplicada a diferentes problemas, incluyendo, (1) mejora de la calidad de la reconstrucción de la imagen de una escena estática, (2) incremento de la precisión en la clasificación usando mediciones espectrales comprimidas, y (3) diseño de un enfoque de estimación de movimiento utilizando una representación escasa en escenas dinámicas (ultrasonido y video multiespectral), en el caso de video multispectral es usado para diseñar aperturas codificadas de forma adaptada para mejorar la calidad de la reconstrucción de la imagen en escenas dinámicas.
  • Item
    Reconstruction algorithm optimization and system matrix design in compressive spectral imaging
    (Universidad Industrial de Santander, 2018) Mejía Melgarejo, Yuri Hercilia; Arguello Fuentes, Henry
    Los sensores compresivos de imágenes espectrales reducen el número de pixeles muestreados mediante la combinación de información espectral codificada de una escena en proyecciones bidimensionales. El diseño de la matriz de muestreo que modela el sensor y la optimización del algoritmo de reconstrucción son áreas importantes de investigación hoy en día. Este trabajo desarrolla algunos enfoques de diseño de la matriz de muestreo para sistemas compresivos de imágenes espectrales, además de propuestas para la mejorar el algoritmo de reconstrucción. El diseño de la matriz consiste en el estudio de la independencia lineal de las filas de la matriz de muestreo y su relación con los valores propios, dando lugar a restricciones físicas en los sensores. Estos diseños también se estudian en el caso en el que se reconstruye una imagen espectral a partir de la fusión de las medidas de dos sensores compresivos. Por otro lado, en la optimización del algoritmo de reconstrucción se explota el hecho de que las imágenes espectrales son suaves en el dominio espacial. Primero, se propone un filtrado pasa bajas dentro del proceso iterativo de los algoritmos de reconstrucción y segundo, se reformula un problema de minimización con un regularizador que promueve suavidad en la imagen y resolviendo por un enfoque Bayesiano.
  • Item
    Automatic disaggregation of residential electrical consumption with non-intrusive methods
    (Universidad Industrial de Santander, 2018) Jiménez Manjarres, Yulieth; Carrillo Caicedo, Gilberto; Petit Suárez, Johann Farith; Duarte Gualdrón, César Antonio
    La informacion detallada de los electrodomésticos individuales en el hogar, llamada desagre- ´ gacion de carga, puede motivar el ahorro energético y apoyar planes de gestión de demanda. Estaénformacion se puede estimar mediante sistemas de Monitorización No intrusiva de Carga (NILM, ´ por sus siglas en ingles), realizan procesamiento de se ´ nales y modelado matem ˜ atico a partir de ´ mediciones electricas en un solo punto. Bajo la premisa de que las se ´ nales de los electrodom ˜ esticos ´ tienen caracter´ısticas distintivas, denominadas firmas de carga, un enfoque es discriminar los electrodomesticos mediante técnicas de inteligencia artificial. Aunque la investigación en estaárea está´ en crecimiento, aun se detectan algunas brechas en la literatura cient ´ ´ıfica y esta tesis contribuye al conocimiento en varios aspectos. Primero, se presenta un marco para implementar sistemas NILM. Segundo, se propone un sistema basado en eventos que comprende las etapas de deteccion´ de eventos, extraccion más efectiva de caracter ´ ´ısticas transitorias basadas en el dominio del tiempo y de la transformada S, clasificacion a través de un enfoque no tradicional y estimación de poten- ´ cia mediante la dependencia de la tension. Tercero, se evalúa la capacidad de discriminación de ´ las firmas de carga para determinar el impacto del punto de los factores de impacto mencionados. Finalmente, se construyo una base de datos de medidas de aparatos residenciales bajo diferenteséscenarios de tension de alimentación, impedancia y operación de los aparatos. As ´ ´ı, estos sistemas NILM se vislumbran como aplicaciones de hogares inteligentes.
  • Item
    Tuning up global optimization techniques to solve the reliability problem in nonlinear geophysical inversions
    (Universidad Industrial de Santander, 2018) Abreo Carrillo, Sergio Alberto; Reyes Torres, Óscar Mauricio; Ramírez Silva, Ana Beatriz
    La inversión de datos geofísicos es un proceso que implica la solución de un problema no-lineal, que usualmente esta mal puesto y demanda un elevado costo computacional. Es por ello, que en el estado del arte se han desarrollado diferentes técnicas para tratar de resolver este problema. En este trabajo doctoral, se propone una metodología novedosa en la que el proceso de inversión de datos geofísicos se aborda desde el punto de vista de la optimización; usando una técnica de optimización global (optimización por enjambre de partículas, PSO por su nombre en ingles) en conjunto con una técnica de optimización local (inversión de onda completa, FWI por su nombre en ingles) para tratar de resolver el problema. Además, se propone el uso de la transformada de Hilbert en conjunto con la matriz Hessiana para identificar la calidad de los resultados. La metodología propuesta utiliza arquitecturas de cómputo en paralelo (unidades de procesamiento gráfico, GPU por su nombre en ingles) para reducir el costo computacional de las tres etapas formuladas. La validación de la metodología se hace a través del uso de cuatro modelos geológicos sintéticos de prueba, los cuales se pueden considerar como complejos debido a que contienen variaciones laterales y verticales de velocidad, zonas de falla e intrusiones de alta velocidad (IAV). Los modelos elegidos son: el Marmousi, Canadian foothills, Hess y BP. La metodología propuesta en esta tesis doctoral prueba que es posible usar PSO en conjunto con la FWI para obtener resultados muy buenos en modelos geológicos con IAV menores o iguales al 6% del area de interés presentando dificultades para IAV mayores al 20%. Además, la información ofrecida por la transformada de Hilbert permitió identificar cuando el proceso de inversión estaba avanzando correcta o incorrectamente.
  • Item
    Evaluación de métricas en dominios transformados usadas en las metaheurísticas para generar un punto de partida favorable a la inversión de onda completa 2d
    (Universidad Industrial de Santander, 2017) Serrano Luna, Jheyston Omar; Abreo Carrillo, Sergio Alberto; Ramírez Silva, Ana Beatriz
    La industria del petr´oleo est´a interesada en la b´usqueda de mejores m´etodos para estimar los par´ametros del subsuelo a partir de los datos obtenidos durante una exploraci´on s´ısmica. Los par´ametros del subsuelo se utilizan para encontrar im´agenes de reflectividad de la tierra que indica la existencia de un yacimiento de petr´oleo o gas. Estos par´ametros del subsuelo deben estimarse correctamente de tal manera que la imagen resultante sea correcta. La t´ecnica de inversi´on de onda completa (FWI) es una herramienta que permite obtener una imagen de alta resoluci´on del subsuelo. Actualmente se est´a realizando un gran esfuerzo para industrializar esta t´ecnica, que tiene dos desventajas: su elevado costo computacional y su sensibilidad a la elecci´on del punto de partida. Algunas estrategias son usadas para establecer el punto de partida: m´etodos anal´ıticos, tomograf´ıas y m´etodos de optimizaci´on global. Los m´etodos de optimizaci´on global son t´ecnicas bioinspiradas que ofrecen muy buenos resultados cuando no es viable implementar el m´etodo ´optimo, son de f´acil implementaci´on y necesitan de alguna m´etrica para su avance en su b´usqueda sobre la funci´on objetivo. El objetivo principal de este trabajo de maestr´ıa es explorar distintos dominios transformados y generar una metodolog´ıa para la construcci´on de una m´etrica que junto con el m´etodo de optimizaci´on global genere un punto de partida favorable para la FWI. Con el fin de medir si el modelo obtenido por la metaheur´ısticas es favorable, nosotros estudiamos el cycle skipping (CS) en 3 dominios: tiempo, frecuencia y traza compleja.
  • Item
    Modelo in silico de evolución dirigida para genes cry11 de bacillus thuringiensis
    (Universidad Industrial de Santander, 2017) Pinzón Reyes, Efraín Hernando; Sierra Bueno, Daniel Alfonso; Flórez Escobar, Álvaro Mauricio
    El presente trabajo de investigación propone un modelo in silico del proceso completo de la técnica de evolución dirigida. El modelo integra la selección de genes parentales, la generación de diversidad mediante el barajado de ADN y la selección de variantes candidatas. Para ello, el modelo aprovecha el método de mínima energía como elemento integrador mediante el cual puede también incorporar los efectos de la formación de estructuras secundarias de ADN en el proceso. El modelo fue usado para estudiar la familia de genes cry11 de Bacillus thuringiensis y predecir bibliotecas quiméricas de genes ensamblados. Dentro de los principales hallazgos se encuentran la obtención de bibliotecas quiméricas in silico de potenciales variantes Cry11 y la caracterización de los genes desde sus propiedades intrínsecas para reaccionar ante condiciones experimentales de evolución dirigida, explicada desde una perspectiva evolutiva entre las diferentes familias Cry. Estas innovaciones trazan dos nuevas líneas de trabajo: la evolución dirigida in silico y la caracterización de genes parentales a partir de sus variaciones termodinámicas para participar de forma eficiente en experimentos de barajado de ADN. Ambas líneas fortalecen desde lo computacional el campo de estudio de la ingeniería de proteínas, superando las limitaciones de los modelos de mutagénesis asistida por computador, cuyo punto de partida son las bibliotecas quiméricas in vitro, mientras que el modelo aquí reportado permite la predicción de estas bibliotecas quiméricas y su posterior análisis, siendo la primer aproximación de la cual se tiene conocimiento para realizar evolución dirigida in silico.
  • Item
    Seismic data compression to reduce the pcie bandwidth limitation
    (Universidad Industrial de Santander, 2016) Fajardo Aríza, Carlos Augusto; Castillo Villar, Javier; Reyes Torres, Óscar Mauricio
    Nosotros proponemos una estrategia para reducir el impacto del cuello de botella Entrada/Salida en un cluster heterogéneo, en el contexto de las aplicaciones sísmicas. La estrategia está basada en un proceso de compresión/descompresión optimizado. La estrategia comprime los datos en campo, mientras son adquiridos, usando un algoritmo de compresión optimizado. Las operaciones de transferencia desde la memoria principal hasta la memoria del nodo son ejecutadas usando los datos comprimidos para reducir el tiempo de transferencia. La descompresión de los datos es ejecutada dentro del nodo antes de que el dato sea procesado. La estrategia se dise˜nó para dos tipos de clusters heterogeneos. El primer tipo de clíster usa GPUs y el segundo usa FPGAs. Por un lado, nuestros resultados muestran que las etapas secuenciales en el proceso de descompresión se convierten rápidamente en un cuello de botella en el cluster basado en GPUs. De otro lado, la implementación de la estrategia en un clíster basado en FPGAs, nos permitió proponer una arquitectura computacional específica, la cual se optimizó para las etapas secuenciales del proceso de descompresión. La implementación de nuestra estrategia en un cluster con FPGAs puede acelerar el proceso de transferencia hasta 10× para una relación de compresión de 16 : 1 y hasta 3× para una relación de compresión de 7 : 1. Por consiguiente, nuestra estrategia efectivamente reduce el impacto del cuello de botella de Entrada/Salida de datos y puede mejorar el rendimiento general de un cluster basado en FPGAs.
  • Item
    Design and classification of antimicrobial and antibacterial peptides
    (Universidad Industrial de Santander, 2016) Rondón Villarreal, Nydia Paola; Sierra Bueno, Daniel Alfonso; Torres Sáez, Rodrigo Gonzalo
    Uno de los problemas de salud píblica más importantes es la resistencia a los antibióticos que poseen bacterias patógenas de gran impacto en la salud humana. El problema es tan importante que puede afectar a la medicina moderna, como por ejemplo, en el área de cirugías especializadas, debido al gran riesgo de adquirir una bacteria super resistente intrahospitalaria, que no pueda ser tratada con los antibiticos existentes. La situacin es bastante desalentadora, la resistencia a los antibiticos está creciendo a tasas alarmantes y el nímero de nuevos antibióticos desarrollados y probados ha disminuido en las íltimos décadas, básicamente por razones económicas y de regulación. En este sentido, míltiples empresas farmacéuticas han abandonado la investigación y el desarrollo de nuevos compuestos antimicrobianos. Sin embargo, en los íltimos a˜nos, un buen nímero de investigadores se ha enfocado en el desarrollo de nuevos antibióticos. Entre estos, los péptidos antimicrobianos (PAMs) han aparecido como una solución prometedora para combatir estas bacterias super resistentes. Por esta razón, míltiples esfuerzos teóricos se han llevado a cabo en el desarrollo de nuevas herramientas computacionales para el dise˜no racional de péptidos que sean mejores y más efectivos. En esta tesis, se proponen dos estrategias para dise˜nar nuevos péptidos antibacterianos potenciales. Adicionalmente, la toxicidad de los péptidos también fue considerada en una de las estrategias propuestas. Los resultados han sido bastante satisfactorios. Míltiples péptidos que fueron dise˜nados en esta tesis fueron sintetizados y probados a nivel experimental y han mostrado actividad contra tres bacterias resistentes a los antibióticos. Adicionalmente, se realizaron pruebas de toxicidad a los péptidos más activos, y resultaron ser no tóxicos en eritrocitos de carnero y en células de tejido de pulmón de la línea A549.
  • Item
    Reconocimiento de la expresión facial en secuencia de video usando parámetros basados en lbp
    (Universidad Industrial de Santander, 2015) Silva Cruz, Edwin Alberto; Plata Gómez, Arturo
    En esta disertación se diseñó e implementó un sistema de reconocimiento de la expresión facial que realiza detección de rostro, extracción de parámetros, selección de parámetros y clasificación de la expresión con algoritmos eficientes de bajo costo de cálculo y memoria, con el fin de su aplicación en sistemas en tiempo real. Los parámetros extraídos son dinámicos, basados en patrones locales binarios y POEM (Patterns of Oriented Edge Magnitudes). El trabajo incluye la implementación de los algoritmos SFA-WM (Sequential Feature Analysis for extraction of Weak Metaclassifiers), que es un aporte original a la búsqueda de parámetros débiles, el algoritmo LC-NNMLE (Local Clustering-Nearest Neighbor MLE), para estimación de dimensión intrínseca, los códigos VPOEM y TPOEM, que probaron ser descriptores adecuados de la expresión facial. Además de pruebas de validación cruzada LSO, se realizaron pruebas de generalización entre bases de datos usando la base de datos KDEF. Los resultados fueron comparados con resultados del estado del arte, que muestran la validez de los parámetros y los sistemas de selección y clasificación con desempeño similar o superior al de la mayor parte de trabajos distinguidos en la bibliografía del tema.
  • Item
    Microwave applicator optimization through metaheuristic algorithms for the mining industry
    (Universidad Industrial de Santander, 2015) Amaya Contreras, Iván Mauricio; Correa Cely, Carlos Rodrigo
    Esta tesis se enfoca al desarrollo de una estrategia de optimización que permita encontrar las dimensiones y frecuencia de resonancia de un aplicador microondas, tal que su distribución de campo corresponda a una definida por el usuario. Se reservan tres capítulos a discutir los pilares principales para establecer dicha estrategia: el modelo matemático de resonadores microondas analizados a través de análisis circuital, las propiedades dieléctricas experimentales de diferentes muestras minerales que cambian con la temperatura, y la formulación de diferentes técnicas de optimización moderna. Luego, se realizó la sinergia de esta información (es decir, el modelo, las propiedades, y los algoritmos de optimización). Se inicia por ejecutar algunas pruebas simples con los algoritmos, para determinar la mejor combinación de ellos. Posteriormente, se abordan algunos escenarios de diseño que incluyen materiales con y sin pérdidas. Se encontraron varias cosas de interés. Pero, la más relevante se refiere a la factibilidad de utilizar la estrategia propuesta. En algunos escenarios (especialmente a altas frecuencias) fue posible lograr un nivel de ajuste mayor a 50 [dB]. Sin embargo, en otros escenarios este valor cayó hasta 20 [dB] (especialmente, cerca del modo fundamental del aplicador). Esto significa que el modelo matemático debe ser refinado. Aun así, luego de comparar los datos respecto a software comercial (CST), se encontró que incluso en los casos donde CST sobrepasó a la estrategia propuesta en esta tesis, la segunda generó una distribución de campo más uniforme. Por tanto, se considera como exitosa la propuesta, así que se recomienda su uso y se sugiere que se trabaje en expandir el modelo a las direcciones restantes y a otros sistemas de coordenadas. Además, se sugiere incluir una métrica que considere el factor de forma de las distribuciones de campo, quizás a través de una suma ponderada. 1
  • Item
    Modelado y procesamiento de dispersión sísmica cercana a la superficie en datos multicomponente: Un enfoque basado en el modelado de ondas elásticas y filtrado de polarización
    (Universidad Industrial de Santander, 2024-01-22) Sánchez Galvis, Iván Javier; Sierra Bueno, Daniel Alfonso; Agudelo Zambrano, William Mauricio; Ramírez Silva, Ana Beatriz; Socco, Laura Valentina; Pérez Solano, Carlos Andrés; Bale, Richard; Stork, Christof
    Esta tesis presenta un conjunto de estrategias para modelar y procesar el ruido causado por la dispersión sísmica cercana a la superficie (NSS, Near-surface Seismic Scattering) en datos sísmicos multicomponente. Para lograr esto, se implementó un enfoque sistemático que incluyó el modelado numérico de la propagación de ondas elásticas 3D en medios heterogéneos cercanos a la superficie con topografías irregulares que emulan escenarios del mundo real. Para mitigar las complejidades computacionales y mejorar la precisión del modelado, se desarrolló un solucionador de ondas elásticas 3D acelerado por GPU. Utilizando dicho solucionador, se introdujo una estrategia para simular la separación NSS y comprender mejor el ruido sísmico terrestre y contribuir al avance de tal ruido. Se creó un filtro de polarización multiestación para la separación de tipos de ondas, mejorando la calidad de los datos sísmicos de tres componentes (3C) submuestreados, especialmente en presencia del ruido NSS. Finalmente, se aplicaron técnicas de aprendizaje automático para la atenuación automática de NSS, lo que mejoró la calidad de los datos sísmicos. El rendimiento de estas estrategias se probó a través de varios experimentos con datos reales y sintéticos, conduciendo a un progreso significativo en la atenuación del ruido NSS en datos sísmicos terrestres.
  • Item
    Towards Intelligent, Secure, and Energy-Efficient Systems-on-Edge
    (Universidad Industrial de Santander, 2024-02-09) Rueda Guerrero, Luis Eduardo; Roa Fuentes, Élkim Felipe; Amaya Palacio, Jose Alejandro; Fajardo Ariza, Carlos Augusto; Ávila, Alba; Patiño, Gustavo; Segura, Fredy
    Con miles de millones (incluso billones, según estimaciones) de dispositivos interconectados, el consumo de energı́a, la gestión de gran cantidad de datos y su seguridad, son algunos de los principales desafı́os para las aplicaciones IoT (Internet de las cosas). La administración inteligente de la energı́a, basada en monitores de tensión, es una de las principales soluciones en cuanto a la reducción del consumo de energı́a. Mientras tanto, la inferencia con sistemas de deep-learning surge como una de las formas más efectivas de lidiar con gran cantidad de datos para la toma de decisiones. Al mismo tiempo, la aceleración con hardware analógico ha demostrado ser una alternativa prometedora para obtener sistemas de deep-learning para aplicaciones IoT (systems-on-edge-SoE) energeticamente eficientes. La seguridad es otro de los principales desafı́os para SoE. Con más nodos conectados, hay más oportunidades para comprometer la seguridad de sistemas completos, lo que podrı́a llevar a la filtración de información sensible o dejar el sistema vulnerable a ataques desde diferentes frentes. Esta tesis presenta contribuciones en los tres frentes mencionados anteriormente: SoE energeticamente eficientes, SoE para la toma de decisiones y vulneración de seguridad en SoE. Primero, proponemos A-Connect, una novedosa metodologı́a para mejorar la resiliencia de las redes neuronales contra la variabilidad estocástica, como cuando se implementan redes neuronales en aceleradores analógicos imprecisos. Presentamos resultados de simulación aplicando A- Connect a modelos populares de DNN (por ejemplo, LeNet-5 para el conjunto de datos MNIST, AlexNet, VGG-16 y ResNet-20 para el conjunto de datos CIFAR-10, y ResNet-18 para el conjunto de datos CIFAR-100). A-Connect muestra el mejor rendimiento en comparación con otros enfoques ex-situ, al tiempo que presenta resultados comparables a métodos in situ e hı́bridos (es decir, utilizando enfoques ex-situ e in situ) en la literatura. Luego, proponemos un macro para Machine Learning (ML) con computación en memoria (CIM) usando memoria SRAM, con un amplio rango de frecuencia y alta eficiencia energética para SoE multi-modo, que utiliza un enfoque de co-diseño de software-hardware con la ayuda de la metodologı́a A-Connect. También presentamos un datapath completamente analógico, y de señal mezclada, que incorpora no solo operaciones MAC, sino también operaciones de ML comúnmente utilizadas dentro del dominio analógico (por ejemplo, ReLU, normalización, memoria). Las simulaciones presentadas en un nodo tecnológico CMOS de 180 nm muestran que los resultados del macro propuesto están cerca de los macros en 65 nm del estado del arte. Además, mostramos estimaciones de rendimiento para un diseño en 28 nm que sitúan al macro analógico propuesto por encima del rendimiento absoluto del estado del arte. Continuamos con la propuesta de monitores de voltaje de múltiples niveles de ultra bajo consumo para estrategias de administración de energı́a de granularidad fina en una tecnologı́a CMOS de 180 nm. También demostramos experimentalmente cómo estos monitores de voltaje podrı́an usarse en una estrategia real de gestión de energı́a en un sistema en chip (SoC) con un microcontrolador RISC-V. Al tener múltiples niveles para los umbrales de voltaje, es posible habilitar tres modos de energı́a diferentes que utilizan un suministro de voltaje más bajo: activo, sleep y deep sleep. En comparación con investigaciones anteriores que no consideran los efectos de baja temperatura al usar ramas de alta impedancia, este trabajo logra un bajo consumo de corriente en dichas condiciones. Finalmente, exploramos mecanismos de vulneración de seguridad no convencionales en ataques por hardware. Presentamos nuestro trabajo sobre ataques por perturbación transistoria del voltaje de alimentación. Como contribución, logramos incluir la red de suministro de energı́a de un SoC en el enfoque clásico de violación de restricciones de tiempo, lo que nos permitió obtener una relación analı́tica entre el potencial de una perturbación de voltaje para inyectar una falla en un sistema y los parámetros de la forma de onda de la perturbación (por ejemplo, duración, amplitud). Anticipamos que nuestro trabajo permitirı́a un modelo de falla del sistema para cualquier forma de onda de perturbación, incluso aquellas generadas por algoritmos genéticos o redes neuronales.
  • Item
    Optimización de extremo a extremo de un sistema computacional codificado de única captura para la estimación de información espectral y de profundidad
    (Universidad Industrial de Santander, 2023-11-14) Vargas Díaz, Edwin Mauricio; Argüello Fuentes, Henry; Tourneret, Jean-Yves; Hinojosa Montero, Carlos Alberto; Meneses Fonseca, Jaime Enrique; Rodríguez Ferreira, Julián Gustavo; Bacca Quintero, Jorge Luis
    Las imágenes de profundidad y espectrales son tecnologías indispensables para multiples aplicaciones, pero tradicionalmente se han explorado de manera independiente. Esfuerzos recientes han estado dirigidos hacia la codificación óptica de información espectral y de profundidad (EP) en una sola captura del sensor, que posteriormente se decodifica mediante un algoritmo computacional. La efectividad de los sistemas EP de única captura depende principalmente de la modulación óptica, que se conoce como codificación, y las técnicas computacionales empleadas para extraer información EP de las medidas codificadas. La modulación óptica se realiza convencionalmente utilizando aperturas codificadas (AC), máscaras de fase, prismas o rejillas, iluminación activa, entre otros. Esta tesis propone una estrategia de modulación óptica (codificación) mediante la sincronización de una apertura codificada en fase y un obturador de píxeles arbitrario en conjunto con una apertura codificada de color en el sensor. El multiplexado en el tiempo de la apertura codificada (MTAC) mejora las estrategias de codificación convencionales sin agregar nuevos elementos ópticos. Esta tesis demuestra que el MTAC propuesto implica una función de dispersión de puntos (FDP) espacialmente variable para un profundidad constante en una escena, lo que facilita la distinción, y por tanto, una mejor recuperación de la información de profundidad. Además, el filtrado selectivo de bandas espectrales específicas por parte del CCA codifica las características relevantes de la información espectral que se decodifica usando un algoritmo e reconstrucción. Para optimizar el MTAC, esta tesis aprovecha los avances de las técnicas de aprendizaje profundo para aprender conjuntamente la modulación óptica y el algoritmo de decodificación computacional en un marco de trabajo de extremo a extremo (E2E). El enfoque propuesto demuestra a través de simulaciones numéricas y escenarios reales que el enfoque propuesto supera a los sistemas EP de única captura del estado del arte. Finalmente, esta tesis doctoral muestra que el concepto fundamental MTCA logra un mayor rendimiento cuando se aplica a sistemas computacionales de imágenes espectrales compresivas e imágenes de campo de luz, demostrando así su amplia aplicabilidad.
  • Item
    Diseño de algoritmos de aprendizaje profundo para imágenes médicas en tareas de diagnóstico asistido por computador
    (Universidad Industrial de Santander, 2023-11-15) Sánchez Quiroga, Karen Yaneth; Argüello Fuentes, Henry; Basarab, Adrian; Pertuz Arroyo, Said David; Fajardo Ariza, Carlos Augusto; Galvis, Laura Viviana; Gélvez Barrera, Tatiana Carolina; Pellegrini, Tomas
    Esta tesis doctoral examina la aplicación de la inteligencia artificial, específicamente modelos de aprendizaje profundo, en tareas de diagnóstico asistido por computadora (CAD) dentro de imágenes médicas. Si bien los modelos de aprendizaje profundo han revolucionado el campo médico, siguen dependiendo de grandes volúmenes de datos etiquetados, a menudo escasos y privados, y que varían entre los centros médicos. Esta tesis explora los conceptos de "adaptación de dominio" y "aumento de datos generativos" para abordar el problema de sobreajuste que surge de la falta de datos disponibles y afecta la precisión y generalización de los modelos. El primero aprovecha el conocimiento de un dominio de origen etiquetado para mejorar el rendimiento del modelo en un dominio de destino con datos limitados o sin datos etiquetados. El último se centra en la creación de datos sintéticos para aumentar el conjunto de entrenamiento, mejorando la generalización y precisión del modelo. En una contribución doble, esta tesis presenta primero un método para la selección inteligente, transformación e incorporación de radiografías de tórax de un conjunto de datos públicos en una red neuronal para mejorar la precisión de la clasificación de la neumonía. Este método mitiga los desafíos de trabajar con conjuntos de datos pequeños y variables entre diferentes hospitales. En segundo lugar, esta tesis presenta un método novedoso para el aumento de datos generativos para mejorar la precisión de la segmentación de tumores hepáticos en imágenes de resonancia magnética de múltiples contrastes. Al crear datos sintéticos para aumentar el conjunto de entrenamiento, este método busca mejorar la precisión y confiabilidad de la segmentación de tumores, una tarea vital para un diagnóstico preciso y una planificación del tratamiento. La investigación, desarrollada en colaboración con múltiples instituciones académicas y de investigación, tiene como objetivo en última instancia superar los desafíos en el análisis de imágenes médicas presentados por la escasez de datos etiquetados y mejorar las tareas CAD en diversas aplicaciones médicas.
  • Item
    Diseño e implementación de nuevos métodos para tareas de inferencia usando imágenes hiperespectrales sensadas por compresión
    (Universidad Industrial de Santander, 2023-11-13) Vargas García, Héctor; Argüello Fuentes, Henry; Martínez Carrillo, Fabio; Bautista Rozo, Lola Xiomara; Gélvez Barrera, Tatiana Carolina; Esnaola, Iñaki; Rodríguez Valderrama, Paul Antonio
    La escasez, representada por un conjunto reducido de coeficientes en un diccionario dado, es clave en tareas de procesamiento de señales. La adquisición compresiva utiliza proyecciones aleatorias para aprovechar la escasez de las señales en sistemas con recursos limitados, como sensores, con una costosa reconstrucción. Una alternativa es transformar la reconstrucción costosa en un método de procesamiento de señales más económico, estimando un número reducido de características. Por otro lado, las proyecciones aleatorias computacionales se emplean para integrarse eficientemente con métodos de inferencia tradicionales. Se asume que ciertas proyecciones preservan el subespacio de datos, utilizándose en métodos basados en subespacios para reducir ruido y dimensión de la información. En esta tesis, se propone una metodología para adquirir imágenes hiperespectrales de manera compresiva. Se utiliza un sistema óptico multimodal con cámaras hiperespectral y RGB. La extracción de características se realiza sin reconstruir todo el cubo de datos, mediante una estrategia de optimización numérica. Este enfoque demuestra la posibilidad de obtener características discriminatorias sin reconstruir todos los datos en términos de precisión de clasificación.
  • Item
    Estimación de estadísticos muestrales desde proyecciones aleatorias de baja dimensión
    (Universidad Industrial de Santander, 2023-11-14) Monsalve Salazar, Jonathan Arley; Argüello Fuentes, Henry; Rueda Chacón, Hoover Fabián; Bacca Quintero, Jorge Luis; Ramírez Silva, Ana Beatriz; Gélvez Barrera, Tatiana Carolina; Rodríguez Valderrama, Pablo Antonio
    El muestreo compresivo de la covarianza (MCC) tiene como objetivo recuperar el segundo momento estadístico de una señal a partir de un conjunto de proyecciones aleatorias de baja dimensión. En particular, CCS recupera la matriz de covarianza (MC) en lugar de la señal de alta dimensión, lo que representa una reducción significativa de los datos reconstruidos en aplicaciones tales como imágenes hiperespectrales, donde la MC suele ser algunos órdenes de magnitud más pequeño que la imagen. Además, la MC proporciona información sobre el subespacio de los datos útil para diseñar protocolos de detección, entrenar modelos para la clasificación o incluso reconstruir la señal. Esta tesis estudia la estimación y el uso del segundo momento estadístico de las imágenes hiperespectrales en la acquisición compresiva de imágenes espectrales (CSI). Por lo tanto, esta tesis propone un algoritmo para reconstruir el segundo momento estadístico a partir de proyecciones aleatorias de baja dimensión de imágenes hiperespectrales y un algoritmo para diseñar el protocolo de adquisición utilizando la MC. Para ello se propone un problema de optimización convexa, un algoritmo y una arquitectura óptica. Además, esta tesis presenta el análisis de las garantías de convergencia y algunas propiedades teóricas para asegurar una correcta reconstrucción. El algoritmo propuesto se prueba en tareas de clasificación y reconstrucción de imágenes hiperespectrales, incluida la estimación de la cobertura terrestre utilizando la MC recuperada.