Doctorado en Ingeniería: Área Ingeniería Electrónica
Permanent URI for this collection
Browse
Browsing Doctorado en Ingeniería: Área Ingeniería Electrónica by Title
Now showing 1 - 20 of 42
Results Per Page
Sort Options
Item Algoritmo de reconstrucción de imágenes a partir de proyecciones espectrales aleatorias usando regularizadores de bajo rango(Universidad Industrial de Santander, 2022-05-05) Gélvez Barrera, Tatiana Carolina; Argüello Fuentes, Henry; Duarte Gualdrón, César Antonio; Bautista Rozo, Lola Xiomara; Galvis Carreño, Laura Viviana; Basarab, Adrian; Carlsson, MarcusEl uso de información previa es crucial en la solución de problemas inversos mal condicionados en el procesamiento de imágenes. Esta tesis estudia el denominado bajo rango como información previa de una imagen espectral (IE) abordando la pregunta de investigación ¿Cómo aprovechar la propiedad de bajo rango para resolver problemas de recuperación de imágenes espectrales? Una IE puede ser modelada como un arreglo tridimensional con dos dimensiones espaciales y una dimensión espectral. Típicamente, las escenas naturales contienen redundancia en las respuestas espectrales y similitudes en las estructuras espaciales, tal que la propiedad de bajo rango indica que una IE se encuentra en un subespacio de baja dimensión. Sin embargo, la literatura omite comúnmente un aspecto crítico relacionado con la distinta connotación que tiene la propiedad de bajo rango en las dimensiones espaciales y espectral. Por lo tanto, esta tesis analiza la propiedad de bajo rango por medio de premisas teóricas y estudios empíricos para determinar cómo emplear el bajo rango, obteniendo las siguientes contribuciones principalmente. Un enfoque que incorpora la propiedad de bajo rango implícitamente en la arquitectura de una red neuronal, proponiendo una alternativa a la formulación típica de una función de regularización. Además, se introduce el concepto de similitud de rango-uno asumiendo que las correlaciones estructurales en una IE son preservadas a lo largo de las bandas espectrales. Este concepto determina una dimensión adicional a las dimensiones espaciales y espectral para emplear la propiedad de bajo rango. Finalmente, se presenta la implementación y desarrollo de cuatro algoritmos de recuperación de imágenes espectrales, cubriendo formulaciones de optimización convexa y aprendizaje profundo que consideran la propiedad de bajo rango en la dimensión espacial, espectral, de similitud, y desde el punto de vista global y no-local. En particular, se abordan los problemas de eliminación de ruido, super-resolución, fusión, fusión compresiva, y reconstrucción compresiva, superando los métodos de referencia comparativa en métricas de calidad objetivas y visuales.Item Automatic disaggregation of residential electrical consumption with non-intrusive methods(Universidad Industrial de Santander, 2018) Jiménez Manjarres, Yulieth; Carrillo Caicedo, Gilberto; Petit Suárez, Johann Farith; Duarte Gualdrón, César AntonioLa informacion detallada de los electrodomésticos individuales en el hogar, llamada desagre- ´ gacion de carga, puede motivar el ahorro energético y apoyar planes de gestión de demanda. Estaénformacion se puede estimar mediante sistemas de Monitorización No intrusiva de Carga (NILM, ´ por sus siglas en ingles), realizan procesamiento de se ´ nales y modelado matem ˜ atico a partir de ´ mediciones electricas en un solo punto. Bajo la premisa de que las se ´ nales de los electrodom ˜ esticos ´ tienen caracter´ısticas distintivas, denominadas firmas de carga, un enfoque es discriminar los electrodomesticos mediante técnicas de inteligencia artificial. Aunque la investigación en estaárea está´ en crecimiento, aun se detectan algunas brechas en la literatura cient ´ ´ıfica y esta tesis contribuye al conocimiento en varios aspectos. Primero, se presenta un marco para implementar sistemas NILM. Segundo, se propone un sistema basado en eventos que comprende las etapas de deteccion´ de eventos, extraccion más efectiva de caracter ´ ´ısticas transitorias basadas en el dominio del tiempo y de la transformada S, clasificacion a través de un enfoque no tradicional y estimación de poten- ´ cia mediante la dependencia de la tension. Tercero, se evalúa la capacidad de discriminación de ´ las firmas de carga para determinar el impacto del punto de los factores de impacto mencionados. Finalmente, se construyo una base de datos de medidas de aparatos residenciales bajo diferenteséscenarios de tension de alimentación, impedancia y operación de los aparatos. As ´ ´ı, estos sistemas NILM se vislumbran como aplicaciones de hogares inteligentes.Item Caracterización de la afectación del nivel de resiliencia de redes eléctricas de baja tensión ante la integración de generación fotovoltaica y almacenamiento de energía a base de hidrógeno(Universidad Industrial de Santander, 2024-10-21) Rodríguez Velásquez, Rusber Octavio; Osma Pinto, German Alfonso; Solano Martínez, Javier Enrique; Ordoñez Plata, Gabriel; Duarte Gualdrón, César Antonio; Serna Suárez, Iván David; Pantoja, Ingrid Oliveros; Madrigal Martínez, Manuel; Bernal Alzate, EfraínEsta tesis analiza la resiliencia eléctrica de las redes de baja tensión (LV). También aborda la creciente instalación de sistemas solares fotovoltaicos (PV) en las redes de LV, acompañado de la integración de sistemas de almacenamiento de energía (ESS) para mejorar el rendimiento de las energías renovables. La interconexión no planificada de sistemas PV y ESS puede afectar a las redes eléctricas e influir en su respuesta a las perturbaciones. Esta investigación requiere un concepto adecuado de "resiliencia eléctrica de la red", que evalúe la capacidad de una red LV que integre PV y ESS para soportar, absorber y superar eventos adversos. Mientras que las evaluaciones de resiliencia existentes se centran en eventos de alto impacto y baja probabilidad, esta tesis propone un enfoque integral para evaluar la resiliencia en redes LV, considerando tanto las interrupciones importantes como los incidentes menores. La metodología integra la fragilidad, la continuidad del suministro y la calidad del servicio, abordando el vacío existente entre estudios independientes. La tesis también explora los beneficios potenciales de la incorporación de ESS basadas en hidrógeno (H2-ESS) en las redes LV para mejorar la confiabilidad. El enfoque propuesto se aplica a la instalación eléctrica del Edificio de Ingeniería Eléctrica (EEB-UIS) de la Universidad Industrial de Santander (UIS), Colombia. El análisis del caso revela que el EEB-UIS tiene un riesgo bajo en cuanto a eventos de alto impacto, con oportunidades para fortalecer la confiabilidad y la resiliencia de la operación. El estudio identifica problemas de sobretensión y desequilibrio de carga, sugiriendo estrategias como un sistema de respaldo H2-ESS e implementar gestión de la energía. La red eléctrica EEB-UIS se modela utilizando Matlab & Simulink, esto permite simulaciones para evaluar la influencia de la ubicación, capacidad y operación de los sistemas PV y H2-ESS en el rendimiento de la red LV. Los resultados indican que una gestión eficaz de las fuentes distribuidas mejora la resiliencia eléctrica, especialmente en fiabilidad y calidad de funcionamiento. La tesis proporciona un análisis exhaustivo de la resiliencia aplicable a microrredes y redes LV, destacando el potencial para extender la metodología a redes de distribución de media tensión.Item Caracterización experimental de la turbulencia a grandes distancias horizontales y baja altura mediante la técnica de Telescopía de Fourier(Universidad Industrial de Santander, 2020) Tíjaro Rojas, Omar Javier; Torres Moreno, Yezid; Ramírez Silva, Ana Beatriz; Rodríguez Ferreira, Julián Gustavo; Torres Amarís, Rafael Ángel; Plata Gómez, Arturo; Solarte Rodríguez, Efraín; Amaya Robayo, Dafne CeciliaEsta tesis presenta la técnica de Telescopía de Fourier probada experimentalmente a tres distancias diferentes de propagación horizontal y cerca del suelo para la caracterización de la turbulencia, la cual está apoyada en mediciones a partir de sensores de variables físicas adicionales donde se observan las condiciones ambientales. El diseño de este método se basa en la integración de montajes ópticos y electrónicos para poder llevar a cabo el registro y posterior análisis de las mediciones, en dónde el láser fue caracterizado con relación a los efectos más importantes que este produce y por el cual afecta las mediciones de la turbulencia. El hardware y software aquí utilizado se diseñó especialmente para que las mediciones en campo se pudieran adaptar fácilmente a la alimentación con baterías. Los cálculos registrados de las variables de medición de turbulencia fueron ejecutados a partir de Matlab ® y las simulaciones se ejecutaron a partir del apoyo recibido por la “Florida Atlantic University” (FAU) y el “Department of Computer & Electrical Engineering and Computer Science”, con los algoritmos brindados. Esta técnica sirve para la medición de estos parámetros, rescatando las características que se aprendieron en esta tesis para aplicaciones de seguridad en donde se necesite por ejemplo detección de objetos a larga distancia, pues el periodo espacial, de las franjas proyectadas a 134.8 metros de propagación, estuvo en el orden de los cientos de nanómetros, lo cual origina una fuerte motivación para continuar trabajando en este tema.Item Caracterización experimental de la turbulencia a grandes distancias horizontales y baja altura mediante la técnica de telescopía de Fourier(Universidad Industrial de Santander, 2020) Tíjaro Rojas, Omar Javier; Torres Moreno, Yezid; Ramírez Silva, Ana BeatrizEsta tesis presenta la técnica de Telescopía de Fourier probada experimentalmente a tres distancias diferentes de propagación horizontal y cerca del suelo para la caracterización de la turbulencia, la cual está apoyada en mediciones a partir de sensores de variables físicas adicionales donde se observan las condiciones ambientales. El diseño de este método se basa en la integración de montajes ópticos y electrónicos para poder llevar a cabo el registro y posterior análisis de las mediciones, en dónde el láser fue caracterizado con relación a los efectos más importantes que este produce y por el cual afecta las mediciones de la turbulencia. El hardware y software aquí utilizado se diseñó especialmente para que las mediciones en campo se pudieran adaptar fácilmente a la alimentación con baterías. Los cálculos registrados de las variables de medición de turbulencia fueron ejecutados a partir de Matlab ® y las simulaciones se ejecutaron a partir del apoyo recibido por la “Florida Atlantic University” (FAU) y el “Department of Computer & Electrical Engineering and Computer Science”, con los algoritmos brindados. Esta técnica sirve para la medición de estos parámetros, rescatando las características que se aprendieron en esta tesis para aplicaciones de seguridad en donde se necesite por ejemplo detección de objetos a larga distancia, pues el periodo espacial, de las franjas proyectadas a 134.8 metros de propagación, estuvo en el orden de los cientos de nanómetros, lo cual origina una fuerte motivación para continuar trabajando en este tema.Item Circuitos y técnicas de diseño para seguridad de la información en un sistema integrado(Universidad Industrial de Santander, 2019) Gómez Ortiz, Héctor Iván; Roa Fuentes, Élkim Felipe; Reyes Torres, Óscar Mauricio; Núñez de Villavicencio Martínez, Luis Alberto; Núñez de Villavicencio Martínez, Luis Alberto; Lamos Díaz, Henry; Lamos Díaz, Henry; Amaya Palacio, José Alejandro; Amaya Palacio, José Alejandro; Chacón Rodríguez, Alfonso; Arnaud, AlfredoLa tendencia al aumento de dispositivos electrónicos interconectados crea varios desafíos técnicos. Uno de ellos es garantizar la privacidad de la información, considerando como la información podría extenderse a través de diferentes canales antes de llegar a su destino final. La garantía de privacidad implica diferentes primitivas de seguridad de hardware / software, como la generación y el establecimiento de claves. Estas dos primitivas desempeñan un papel funda-mental, ya que las operaciones en cualquier algoritmo criptográfico se basan en claves de alta calidad y en el establecimiento de una clave de sesión, o tener una clave secreta común. La protección de la propiedad intelectual es otra preocupación de la industria actual; el acceso físico a los dispositivos permite un escenario ideal para desarrollar ingeniería inversa. La ingeniería inversa podría conducir a la extracción sin la autorización adecuada de funcionalidades o datos confidenciales que podrían usarse para explotar vulnerabilidades y obtener acceso restringido, o para realizar ataques sofisticados. Este trabajo presenta tres contribuciones probadas en el área de seguridad de la información a nivel de circuito abordando los desafíos mencionados anteriormente. La primera contribución comprueba la implementación de un establecimiento de clave ligero con una función de cambio de clave rápido, donde se proponen dos implementaciones a nivel de circuito para acelerar la función de cambio de clave y proporcionar ofuscación. La segunda contribuci´on se enfoca en generadores de verdaderos números aleatorios (TRNG) totalmente sintetizables para la generación de claves de costo bajo. Presentamos dos nuevas arquitecturas para TRNG totalmente sintetizadas junto con un método para captar la entropía, utilizando dos fuentes de entropía, considerando que un avance reciente prueba que la extracción de números verdaderamente aleatorios requiere más de una fuente de entropía. La tercera contribuci´on propone una técnica para evitar la ingeniería inversa mediante el uso de la ofuscación a nivel de layout. Finalmente, más allá del alcance del trabajo propuesto, también abordamos un problema de seguridad en las memorias DRAM. Algunos chips DRAM modernos experimentan el llamado error de martilleo de filas que permite infracciones de seguridad. Para contrarrestar este ataque desarrollamos una estrategia novedosa a nivel de hardware para mitigar los ataques de martilleo de filas basados en una celda ficticia. La estructura propuesta ofrece un mecanismo de alerta para activar las operaciones de actualización del controlador de memoria, evitando el cambio de bits o la perdida de información, mientras se realiza un ataque de martilleo de filas.Item Clock and Data Recovery Techniques for Integrated High-Speed Interfaces(Universidad Industrial de Santander, 2021) Ardila Ochoa, Javier Ferney; Roa Fuentes, Élkim Felipe; Amaya Palacio, José Alejandro; Ortega Boada, Homero; Ávila, Alba Graciela; Palermo, SamuelLa demanda de ancho de banda y el aumento gradual de la densidad de pines en los sistemas electrónicos han impulsado las interconexiones eléctricas y ópticas hacia una mayor tasa de transferencia. Desde dispositivos electrónicos portátiles hasta supercomputadoras, el ancho de banda de comunicación de datos por cable también debe crecer para evitar limitar la escala de rendimiento de estos sistemas. En este trabajo se explora el impacto y modelado de las pérdidas de canal en los sistemas de comunicación serial de alta velocidad, específicamente en los circuitos de recuperación de reloj y datos (CDR). Se presenta y se define una metodología de diseño para los circuitos CDR dentro de las interfaces de comunicación de alta velocidad. Además, se propone el método XCALG como alternativa para la adaptación de la ganancia de lazo en estos sistemas CDR. El principio básico es el uso de la función de correlación cruzada. Las propiedades de filtrado de la densidad espectral de potencia cruzada permiten la adaptación mientras mantienen un margen de fase apropiado en el sistema. Las principales ventajas y limitaciones de esta técnica sobre las tradicionales que utilizan autocorrelación son discutidas. Lo anterior es implementado mediante la fabricación de un circuito integrado en una tecnología CMOS de 0.18um.Item Coded aperture design for adaptive compressive spectral imaging(Universidad Industrial de Santander, 2020) Díaz Díaz, Nelson Eduardo; Argüello Fuentes, Henry; Bautista Rozo, Lola Xiomara; Meneses Fonseca, Jaime Enrique; Rodríguez Ferreira, Julián Gustavo; Carlsson, Marcus; Basarab, AdrianLa adquisición de imágenes espectrales de manera tradicional es un proceso lento debido a que se requiere escanear la escena bajo estudio. En contraste, obtener imágenes espectrales comprimidas (compressive spectral imaging, CSI por sus siglas en inglés) ha atraído un gran interés porque reduce el número de muestras respecto a los sistemas de escaneo para capturar el cubo de datos, esto mejora la velocidad de muestreo. CSI mide proyecciones lineales de una escena, y luego un algoritmo de reconstrucción estima la escena subyacente. Una arquitectura ejemplo de CSI es el sistema de adquisición espectral comprimido de única captura con apertura de color (Colored coded aperture compressive spectral imager, C-CASSI, por sus siglas en inglés) que emplea un arreglo de filtros como códigos de apertura para codificar espacial y espectralmente la luz que entra en el sistema. Dichos códigos de apertura son equivalentes a la matriz de muestreo del sistema, su función es obtener medidas de la señal. Al día de hoy los trabajos relacionados con C-CASSI han usado códigos de apertura no adaptados. Específicamente, el muestreo no adaptado ignora la información a priori acerca de la señal para diseñar los patrones de codificación. Por lo tanto, este trabajo propone tres métodos diferentes para diseñar de forma adaptativa la apertura codificada de colores aplicada a diferentes problemas, incluyendo, mejora de la calidad de la reconstrucción de la imagen de una escena estática, incremento de la precisión en la clasificación usando mediciones espectrales comprimidas, y diseño de un enfoque de estimación de movimiento utilizando una representación escasa en escenas dinámicas (ultrasonido y video multiespectral), en el caso de video multispectral es usado para diseñar aperturas codificadas de forma adaptada para mejorar la calidad de la reconstrucción de la imagen en escenas dinámicas.Item Coded aperture design for adaptive compressive spectral imaging(Universidad Industrial de Santander, 2020) Díaz Díaz, Nelson Eduardo; Arguello Fuentes, HenryLa adquisición de imágenes espectrales de manera tradicional es un proceso lento debido a que se requiere escanear la escena bajo estudio. En contraste, obtener imágenes espectrales comprimidas (compressive spectral imaging, CSI por sus siglas en inglés) ha atraído un gran interés porque reduce el número de muestras respecto a los sistemas de escaneo para capturar el cubo de datos, esto mejora la velocidad de muestreo. CSI mide proyecciones lineales de una escena, y luego un algoritmo de reconstrucción estima la escena subyacente. Una arquitectura ejemplo de CSI es el sistema de adquisición espectral comprimido de única captura con apertura de color (Colored coded aperture compressive spectral imager, C-CASSI, por sus siglas en inglés) que emplea un arreglo de filtros como códigos de apertura para codificar espacial y espectralmente la luz que entra en el sistema. Dichos códigos de apertura son equivalentes a la matriz de muestreo del sistema, su función es obtener medidas de la señal. Al día de hoy los trabajos relacionados con C-CASSI han usado códigos de apertura no adaptados. Específicamente, el muestreo no adaptado ignora la información a priori acerca de la señal para diseñar los patrones de codificación. Por lo tanto, este trabajo propone tres métodos diferentes para diseñar de forma adaptativa la apertura codificada de colores aplicada a diferentes problemas, incluyendo, (1) mejora de la calidad de la reconstrucción de la imagen de una escena estática, (2) incremento de la precisión en la clasificación usando mediciones espectrales comprimidas, y (3) diseño de un enfoque de estimación de movimiento utilizando una representación escasa en escenas dinámicas (ultrasonido y video multiespectral), en el caso de video multispectral es usado para diseñar aperturas codificadas de forma adaptada para mejorar la calidad de la reconstrucción de la imagen en escenas dinámicas.Item Coded diffraction pattern design algorithm for phase retrieval in optical imaging(Universidad Industrial de Santander, 2020) Pinilla Sánchez, Samuel Eduardo; Argüello Fuentes, Henry; Bautista Rozo, Lola Xiomara; Torres Amarís, Rafael Ángel; Meneses Fonseca, Jaime Enrique; Vera Rojas, Esteban Mauricio; Eguiazarian, KarenLa recuperación de fase es un problema inverso que consiste en estimar una escena a partir de inten-sidades de difracción. Este problema aparece en la formación de imágenes ópticas, que tiene tres zonas principales de difracción donde se pueden adquirir medidas, cerca, media y lejos. Trabajos recientes han empleado algoritmos de descenso de gradiente para resolver el problema de recuperación de fase relacionado con la zona lejana, creando redundancia en el proceso de medición al incluir una apertura codificada, que permite modular la escena y adquirir patrones de difracción codificados (CDP). Sin embargo, este problema no se ha estudiado teóricamente para CDP en las zonas cercana y media. Además, la estructura de la apertura codificada se selecciona al azar, lo que conduce a estimaciones subóptimas. Esta tesis proporciona garantías teóricas para la recuperación de una escena adquirida en las tres zonas de difracción utilizando modulaciones admisibles. Con base en los resultados teóricos, se demostrará que la calidad de reconstrucción de la imagen depende directamente de la estructura de apertura codificada; por lo tanto, el diseño de la matriz de detección es fundamental para obtener una alta calidad de reconstrucción. Específicamente, las aperturas codificadas se pueden diseñar para mejorar la calidad de la señal reconstruida. Además, cuando la escena se puede representar escasamente de alguna manera, su soporte se puede estimar mejor para una elección cuidadosa de los elementos de codificación. Los resultados numéricos muestran que la escena se recupera con éxito mediante el uso de aperturas codificadas diseñadas con hasta 40% menos de medidas en comparación con conjuntos no diseñados.Item Compresión de datos sísmicos para reducir la limitación del ancho de banda del puerto PCIe(Universidad Industrial de Santander, 2016) Fajardo Ariza, Carlos Augusto; Castillo Villar, Javier; Reyes Torres, Óscar Mauricio; Mozos Muñoz, Daniel; Sepúlveda Sepúlveda, Franklin Alexander; Aguilera Bermúdez, Ernesto; Argüello Fuentes, Henry; Contreras Ortiz, Sonia HelenaNosotros proponemos una estrategia para reducir el impacto del cuello de botella Entrada/Salida en un cluster heterogéneo, en el contexto de las aplicaciones sísmicos. La estrategia está basada en un proceso de compresión/descompresión optimizada. La estrategia comprime los datos en campo, mientras son adquiridos, usando un algoritmo de compresión optimizado. Las operaciones de transferencia desde la memoria principal hasta la memoria del nodo son ejecutadas usando los datos comprimidos para reducir el tiempo de transferencia. La descompresión de los datos es ejecutada dentro del nodo antes de que el dato sea procesado. La estrategia se diseñó para dos tipos de clústeres heterogéneos. El primer tipo de clúster usa GPUs y el segundo usa FPGAs. Por un lado, nuestros resultados muestran que las etapas secuenciales en el proceso de descompresión se convierten rápidamente en un cuello de botella en el cluster basado en GPUs. De otro lado, la implementación de la estrategia en un clúster basado en FPGAs, nos permitió proponer una arquitectura computacional especifica, la cual se optimizó para las etapas secuenciales del proceso de descompresión. La implementación de nuestra estrategia en un cluster con FPGAs puede acelerar el proceso de transferencia hasta 10× para una relación de compresión de 16 : 1 y hasta 3× para una relación de compresión de 7 : 1. Por consiguiente, nuestra estrategia efectivamente reduce el impacto del cuello de botella de Entrada/Salida de datos y puede mejorar el rendimiento general de un cluster basado en FPGAs.Item Design and classification of antimicrobial and antibacterial peptides(Universidad Industrial de Santander, 2016) Rondón Villarreal, Nydia Paola; Sierra Bueno, Daniel Alfonso; Torres Sáez, Rodrigo GonzaloUno de los problemas de salud píblica más importantes es la resistencia a los antibióticos que poseen bacterias patógenas de gran impacto en la salud humana. El problema es tan importante que puede afectar a la medicina moderna, como por ejemplo, en el área de cirugías especializadas, debido al gran riesgo de adquirir una bacteria super resistente intrahospitalaria, que no pueda ser tratada con los antibiticos existentes. La situacin es bastante desalentadora, la resistencia a los antibiticos está creciendo a tasas alarmantes y el nímero de nuevos antibióticos desarrollados y probados ha disminuido en las íltimos décadas, básicamente por razones económicas y de regulación. En este sentido, míltiples empresas farmacéuticas han abandonado la investigación y el desarrollo de nuevos compuestos antimicrobianos. Sin embargo, en los íltimos a˜nos, un buen nímero de investigadores se ha enfocado en el desarrollo de nuevos antibióticos. Entre estos, los péptidos antimicrobianos (PAMs) han aparecido como una solución prometedora para combatir estas bacterias super resistentes. Por esta razón, míltiples esfuerzos teóricos se han llevado a cabo en el desarrollo de nuevas herramientas computacionales para el dise˜no racional de péptidos que sean mejores y más efectivos. En esta tesis, se proponen dos estrategias para dise˜nar nuevos péptidos antibacterianos potenciales. Adicionalmente, la toxicidad de los péptidos también fue considerada en una de las estrategias propuestas. Los resultados han sido bastante satisfactorios. Míltiples péptidos que fueron dise˜nados en esta tesis fueron sintetizados y probados a nivel experimental y han mostrado actividad contra tres bacterias resistentes a los antibióticos. Adicionalmente, se realizaron pruebas de toxicidad a los péptidos más activos, y resultaron ser no tóxicos en eritrocitos de carnero y en células de tejido de pulmón de la línea A549.Item Design techniques to mitigate the impact of pvt-variations in nanometer circuits(Universidad Industrial de Santander, 2020) Amaya Beltrán, Andrés Felipe; Roa Fuentes, Élkim FelipeEl impacto de las variaciones del proceso de fabricaci ón, la temperatura de operaci ón y la tensi ón de alimentación (PVT) en el rendimiento de Systems-on- Chip (SoC) generalmente se mitiga mediante algoritmos de calibraci ón. Estos algoritmos (ejecutados generalmente en segundo plano) utilizan datos de sensors PVT para ajustar la operaci ón a expensas de hardware adicional, latencia y consumo de energía. Este trabajo presenta tres t écnicas de diseño novedosas y de baja complejidad para reducir la incidencia de variaciones PVT globales, locales y aleatorias en el rendimiento de un SoC. La primera alternativa aborda la calibraci ón de offset en ecualizadores de retroalimentaci ón de decisi ón (DFE), utilizados en enlaces seriales. El offset se detecta en el dominio de fase utilizando un detector de fase en la salida del comparador. Esta detección permite eliminar la conexi ón cl ásica de modo común en la entrada del comparador. El método permite la implementación de una calibraci ón sobre la marcha sin afectar la carga en la ruta de la se˜ nal. La segunda t écnica consiste en un algoritmo de calibraci ón para ajustar la no linealidad diferencial (DNL) en convertidores digital-anal ógico capacitivo. El algoritmo reduce la necesidad de conectar la matriz capacitiva a Vcm mientras se calibra, lo que reduce la complejidad del circuito, la potencia y el consumo de área. La tercera t écnica se concentra en mejorar la robustez de la estabilidad de los reguladores lineales. La estabilidad de frecuencia se ve mejorada por dos aspectos: un compensador de Adelanto-atraso, y un esquema adaptativo para la corriente de polarizaci ón y el tamaño del transistor de potencia. El compensador se implementa usando la resistencia en serie equivalente del capacitor externo. Además, una estimación de subimpulso realizada por el detector de brown-out de unidades de administraci ón de energía convencionales establece la corriente de polarizaci ón y el tamaño del transistor de paso.Item Diseño de algoritmos de aprendizaje profundo para imágenes médicas en tareas de diagnóstico asistido por computador(Universidad Industrial de Santander, 2023-11-15) Sánchez Quiroga, Karen Yaneth; Argüello Fuentes, Henry; Basarab, Adrian; Pertuz Arroyo, Said David; Fajardo Ariza, Carlos Augusto; Galvis, Laura Viviana; Gélvez Barrera, Tatiana Carolina; Pellegrini, TomasEsta tesis doctoral examina la aplicación de la inteligencia artificial, específicamente modelos de aprendizaje profundo, en tareas de diagnóstico asistido por computadora (CAD) dentro de imágenes médicas. Si bien los modelos de aprendizaje profundo han revolucionado el campo médico, siguen dependiendo de grandes volúmenes de datos etiquetados, a menudo escasos y privados, y que varían entre los centros médicos. Esta tesis explora los conceptos de "adaptación de dominio" y "aumento de datos generativos" para abordar el problema de sobreajuste que surge de la falta de datos disponibles y afecta la precisión y generalización de los modelos. El primero aprovecha el conocimiento de un dominio de origen etiquetado para mejorar el rendimiento del modelo en un dominio de destino con datos limitados o sin datos etiquetados. El último se centra en la creación de datos sintéticos para aumentar el conjunto de entrenamiento, mejorando la generalización y precisión del modelo. En una contribución doble, esta tesis presenta primero un método para la selección inteligente, transformación e incorporación de radiografías de tórax de un conjunto de datos públicos en una red neuronal para mejorar la precisión de la clasificación de la neumonía. Este método mitiga los desafíos de trabajar con conjuntos de datos pequeños y variables entre diferentes hospitales. En segundo lugar, esta tesis presenta un método novedoso para el aumento de datos generativos para mejorar la precisión de la segmentación de tumores hepáticos en imágenes de resonancia magnética de múltiples contrastes. Al crear datos sintéticos para aumentar el conjunto de entrenamiento, este método busca mejorar la precisión y confiabilidad de la segmentación de tumores, una tarea vital para un diagnóstico preciso y una planificación del tratamiento. La investigación, desarrollada en colaboración con múltiples instituciones académicas y de investigación, tiene como objetivo en última instancia superar los desafíos en el análisis de imágenes médicas presentados por la escasez de datos etiquetados y mejorar las tareas CAD en diversas aplicaciones médicas.Item Diseño de diccionarios para representación escasa en sensado espectral comprimido(Universidad Industrial de Santander, 2023-07-21) Barajas Solano, Crisóstomo Alberto; Argüello Fuentes, Henry; Pertuz Arroyo, Said David; Bautista Rozo, Lola Xiomara; Galvis Carreño, Laura Viviana; Ramírez Rondón, Juan Marcos; Rodríguez Valderrama, Paul AntonioLa Representación de diccionarios escasos convolucionales (CSDR) ha surgido como un marco robusto y flexible para representar escasamente señales de voz, escala de grises e imágenes en color. También se ha utilizado en aplicaciones médicas como imágenes de ultrasonido y ecografía, y geología. El modelo CSDR propone representar una señal como la suma de las convoluciones de una colección demasiado completa de elementos de diccionario convolucional (átomos) y mapas de coeficientes dispersos. Ambas colecciones deben cumplir una serie de restricciones. El modelo CSDR ofrece algunas ventajas interesantes frente a otros modelos de representación dispersa. Por ejemplo, el operador convolucional permite la eliminación de ruido, la invariancia de cambios, la tolerancia (hasta cierto punto) a la deformación, la rotación y la traslación. Estas propiedades hacen del CSDR un modelo interesante para su uso en imágenes espectrales compresivas (CSI). CSI establece que una imagen espectral de interés se puede recuperar a partir de un pequeño conjunto de medidas de compresión, {porque un problema de optimización, con alta probabilidad, recupera la información faltante ya que se supone que los datos son escasos en algún dominio}. Los métodos de última generación utilizan el modelo de representación de señal dispersa (SSR) como base de representación para recuperar la imagen espectral de tamaño completo a partir de una serie de mediciones de compresión. Este trabajo propone cambiar el modelo SSR para el marco CSDR basado en señales para aprovechar las propiedades de CSDR.Item Diseño de máscaras de fase para imágenes ópticas difractivas(Universidad Industrial de Santander, 2024-08) Jerez Ariza, Andrés Felipe; Argüello Fuentes, Henry; Meneses Fonseca, Jaime Enrique; Rodríguez Ferreira, Julián Gustavo; Hinojosa Montero, Carlos Alberto; León López, Kareth Marcela; Meza Narváez, Pablo FranciscoLos sistemas de imágenes ópticas difractivas (DOI), que se basan en máscaras de fase multinivel (MPMs), codifican el frente de onda del campo óptico antes de ser registrado por el sensor. Esto resulta en patrones de difracción codificados (CDPs) donde se pierde la información de fase. Así que, el problema de recuperación de fase (PR) implica aproximar el campo óptico utilizando los CDPs adquiridos. Este problema se ha abordado a través de dos aspectos principales: el diseño de máscaras de fase y el desarrollo de algoritmos de recuperación. Además de los sistemas DOI basados en luz coherente, esta tecnología se ha extendido a configuraciones ópticas basadas en luz incoherente, especialmente en sistemas de imágenes espectrales. La clasificación espectral es una tarea computacional clave en el análisis de imágenes espectrales. Esta disertación enfrenta tres desafíos relacionados con los sistemas DOI: el método de inicialización para el problema de PR en DOI coherente, el problema de PR basado en el diseño MPM a través de una red neuronal profunda (DNN) interpretable en DOI coherente, y la clasificación espectral basada en el diseño MPM utilizando una arquitectura óptica dual en DOI incoherente. Específicamente, esta tesis presenta tres metodologías de optimización de extremo a extremo (E2E) para abordar los desafíos mencionados anteriormente: un método de inicialización E2E utilizando una DNN de doble rama que entrena el paso de filtrado y aproxima el campo óptico; un enfoque de recuperación E2E a partir de una DNN interpretable basada en una formulación no convexa que aprende el MPM y recupera el campo óptico; y un enfoque de clasificación espectral E2E integrando una configuración óptica dual con una DNN que optimiza el MPM y etiqueta los materiales en imágenes espectrales. Los métodos E2E propuestos exhiben un mejor rendimiento que los enfoques convencionales. Finalmente, se implementan dos configuraciones ópticas para validar experimentalmente los métodos E2E propuestos.Item Diseño e implementación de nuevos métodos para tareas de inferencia usando imágenes hiperespectrales sensadas por compresión(Universidad Industrial de Santander, 2023-11-13) Vargas García, Héctor; Argüello Fuentes, Henry; Martínez Carrillo, Fabio; Bautista Rozo, Lola Xiomara; Gélvez Barrera, Tatiana Carolina; Esnaola, Iñaki; Rodríguez Valderrama, Paul AntonioLa escasez, representada por un conjunto reducido de coeficientes en un diccionario dado, es clave en tareas de procesamiento de señales. La adquisición compresiva utiliza proyecciones aleatorias para aprovechar la escasez de las señales en sistemas con recursos limitados, como sensores, con una costosa reconstrucción. Una alternativa es transformar la reconstrucción costosa en un método de procesamiento de señales más económico, estimando un número reducido de características. Por otro lado, las proyecciones aleatorias computacionales se emplean para integrarse eficientemente con métodos de inferencia tradicionales. Se asume que ciertas proyecciones preservan el subespacio de datos, utilizándose en métodos basados en subespacios para reducir ruido y dimensión de la información. En esta tesis, se propone una metodología para adquirir imágenes hiperespectrales de manera compresiva. Se utiliza un sistema óptico multimodal con cámaras hiperespectral y RGB. La extracción de características se realiza sin reconstruir todo el cubo de datos, mediante una estrategia de optimización numérica. Este enfoque demuestra la posibilidad de obtener características discriminatorias sin reconstruir todos los datos en términos de precisión de clasificación.Item Diseño y clasificación de péptidos antimicrobianos y antibacterianos(Universidad Industrial de Santander, 2016) Rondón Villarreal, Nydia Paola; Sierra Bueno, Daniel Alfonso; Torres Sáez, Rodrigo Gonzalo; Martínez Pérez, Francisco José; Ramos Pollán, Raúl; Pedraza Ferreira, Gabriel Rodrigo; Torrents Arenales, DavidUno de los problemas de salud pública más importantes es la resistencia a los antibióticos que poseen bacterias patógenas de gran impacto en la salud humana. El problema es tan importante que puede afectar a la medicina moderna, como, por ejemplo, en el área de cirugías especializadas, debido al gran riesgo de adquirir una bacteria super resistente intrahospitalaria, que no pueda ser tratada con los antibióticos existentes. La situación es bastante desalentadora, la resistencia a los antibióticos esta´ creciendo a tasas alarmantes y el número de nuevos antibióticos desarrollados y probados ha disminuido en las últimas décadas, básicamente por razones económicas y de regulación. En este sentido, múltiples empresas farmacéuticas han abandonado la investigación y el desarrollo de nuevos compuestos antimicrobianos. Sin embargo, en los últimos años, un buen número de investigadores se ha enfocado en el desarrollo de nuevos antibióticos. Entre estos, los péptidos antimicrobianos (PAMs) han aparecido como una solución prometedora para combatir estas bacterias super resistentes. Por esta razón, múltiples esfuerzos teóricos se han llevado a cabo en el desarrollo de nuevas herramientas computacionales para el diseño racional de péptidos que sean mejores y más efectivos. En esta tesis, se proponen dos estrategias para diseñar nuevos péptidos antibacterianos potenciales. Adicionalmente, la toxicidad de los péptidos también fue considerada en una de las estrategias propuestas. Los resultados han sido bastante satisfactorios. Múltiples péptidos que fueron diseñados en esta tesis fueron sintetizados y probados a nivel experimental y han mostrado actividad contra tres bacterias resistentes a los antibióticos. Adicionalmente, se realizaron pruebas de toxicidad a los péptidos más activos, y resultaron ser no tóxicos en eritrocitos de carnero y en células de tejido de pulmón de la línea A549.Item Estimación de estadísticos muestrales desde proyecciones aleatorias de baja dimensión(Universidad Industrial de Santander, 2023-11-14) Monsalve Salazar, Jonathan Arley; Argüello Fuentes, Henry; Rueda Chacón, Hoover Fabián; Bacca Quintero, Jorge Luis; Ramírez Silva, Ana Beatriz; Gélvez Barrera, Tatiana Carolina; Rodríguez Valderrama, Pablo AntonioEl muestreo compresivo de la covarianza (MCC) tiene como objetivo recuperar el segundo momento estadístico de una señal a partir de un conjunto de proyecciones aleatorias de baja dimensión. En particular, CCS recupera la matriz de covarianza (MC) en lugar de la señal de alta dimensión, lo que representa una reducción significativa de los datos reconstruidos en aplicaciones tales como imágenes hiperespectrales, donde la MC suele ser algunos órdenes de magnitud más pequeño que la imagen. Además, la MC proporciona información sobre el subespacio de los datos útil para diseñar protocolos de detección, entrenar modelos para la clasificación o incluso reconstruir la señal. Esta tesis estudia la estimación y el uso del segundo momento estadístico de las imágenes hiperespectrales en la acquisición compresiva de imágenes espectrales (CSI). Por lo tanto, esta tesis propone un algoritmo para reconstruir el segundo momento estadístico a partir de proyecciones aleatorias de baja dimensión de imágenes hiperespectrales y un algoritmo para diseñar el protocolo de adquisición utilizando la MC. Para ello se propone un problema de optimización convexa, un algoritmo y una arquitectura óptica. Además, esta tesis presenta el análisis de las garantías de convergencia y algunas propiedades teóricas para asegurar una correcta reconstrucción. El algoritmo propuesto se prueba en tareas de clasificación y reconstrucción de imágenes hiperespectrales, incluida la estimación de la cobertura terrestre utilizando la MC recuperada.Item Evaluación de métricas en dominios transformados usadas en las metaheurísticas para generar un punto de partida favorable a la inversión de onda completa 2d(Universidad Industrial de Santander, 2017) Serrano Luna, Jheyston Omar; Abreo Carrillo, Sergio Alberto; Ramírez Silva, Ana BeatrizLa industria del petr´oleo est´a interesada en la b´usqueda de mejores m´etodos para estimar los par´ametros del subsuelo a partir de los datos obtenidos durante una exploraci´on s´ısmica. Los par´ametros del subsuelo se utilizan para encontrar im´agenes de reflectividad de la tierra que indica la existencia de un yacimiento de petr´oleo o gas. Estos par´ametros del subsuelo deben estimarse correctamente de tal manera que la imagen resultante sea correcta. La t´ecnica de inversi´on de onda completa (FWI) es una herramienta que permite obtener una imagen de alta resoluci´on del subsuelo. Actualmente se est´a realizando un gran esfuerzo para industrializar esta t´ecnica, que tiene dos desventajas: su elevado costo computacional y su sensibilidad a la elecci´on del punto de partida. Algunas estrategias son usadas para establecer el punto de partida: m´etodos anal´ıticos, tomograf´ıas y m´etodos de optimizaci´on global. Los m´etodos de optimizaci´on global son t´ecnicas bioinspiradas que ofrecen muy buenos resultados cuando no es viable implementar el m´etodo ´optimo, son de f´acil implementaci´on y necesitan de alguna m´etrica para su avance en su b´usqueda sobre la funci´on objetivo. El objetivo principal de este trabajo de maestr´ıa es explorar distintos dominios transformados y generar una metodolog´ıa para la construcci´on de una m´etrica que junto con el m´etodo de optimizaci´on global genere un punto de partida favorable para la FWI. Con el fin de medir si el modelo obtenido por la metaheur´ısticas es favorable, nosotros estudiamos el cycle skipping (CS) en 3 dominios: tiempo, frecuencia y traza compleja.
- «
- 1 (current)
- 2
- 3
- »