Un modelo de representación profunda para clasificar grados de Gleason de cáncer de próstata
dc.contributor.advisor | Martínez Carrillo, Fabio | |
dc.contributor.author | León Pérez, Fabián Andrés | |
dc.contributor.evaluator | Rueda Olarte, Andrea del Pilar | |
dc.contributor.evaluator | Camargo Mendoza, Jorge Eliécer | |
dc.date.accessioned | 2022-09-23T12:46:36Z | |
dc.date.available | 2022-09-23T12:46:36Z | |
dc.date.created | 2022-09-07 | |
dc.date.issued | 2022-09-07 | |
dc.description.abstract | El análisis de imágenes histopatológicas es el método más preciso para caracterizar, diagnosticar y cuantificar los estadios del cáncer. La escala de Gleason es el estándar de oro, en la rutina clínica, para estratificar la agresividad de la enfermedad, lo que permite a los patólogos ponderar segmentos de imágenes de acuerdo con la disposición arquitectónica y morfológica de las células cancerosas. No obstante, esta tarea es altamente subjetiva, variable y depende en gran medida de la experticia y experiencia de los patólogos, lo que afecta el diagnóstico de la enfermedad. Por ejemplo, estudios recientes informan un nivel de discordancia entre 41 patólogos de hasta 0,45 en términos del valor kappa en un conjunto de 38 imágenes. Recientemente, los modelos de aprendizaje profundo han surgido como una alternativa para clasificar y apoyar las tareas de estratificación del cáncer, siguiendo el sistema de Gleason. Sin embargo, estos modelos siguen estando limitados para aprender la complejidad de los patrones histológicos observados debido a la alta variabilidad para representar cada grado de cáncer, con una marcada superposición de representación entre clases. Además, las representaciones pueden estar sesgadas a un observador específico, y las muestras de entrenamiento pueden resultar limitadas con un desequilibrio de clase inherente, presente en escenarios clínicos. Este trabajo presenta un enfoque de aprendizaje multitarea para representar las relaciones intra e inter-Gleason de las muestras más desafiantes, siguiendo dos ramas: una pérdida de tripletas y una entropía cruzada condicionada. En tal sentido, el enfoque propuesto usa una métrica de distancia de tripletas semidifícil como tarea principal para abordar la estratificación de Gleason, entrenada con parches positivos y negativos desafiantes en un nivel particular de Gleason. Luego, se propuso aquí una tarea auxiliar para regularizar el espacio embebido, que permitiera lidiar con la alta inter e intra-apariencia de los cuatro grados, considerados en la estratificación de Gleason. Como regularizador, el enfoque propuesto utiliza una regla de entropía cruzada. El enfoque propuesto se validó en un conjunto de datos públicos con 886 microarreglos de tejido, que en el subconjunto de prueba fue delineado de forma independiente por dos uropatólogos expertos, de acuerdo con el sistema de clasificación de Gleason. El enfoque propuesto logra una clasificación general de exactitud promedio de 66% y 64%, para dos expertos sin diferencia estadística. Además, el enfoque propuesto logró una exactitud promedio del 73% en parches en los que ambos patólogos estaban de acuerdo, lo que demuestra la robustes de los patrones que aprenden del enfoque. | |
dc.description.abstractenglish | Histopathological image analysis is the most accurate method to characterize, diagnose, and quantify cancer stages. The Gleason scale is the gold standard, in clinical routine, to stratify the disease aggressiveness, allowing the pathologists to weight image segments according to the architectural and morphological arrangement of the cancer cells. Nonetheless, this task is highly subjective, variable and greatly depends on the expertise and experience of the pathologists, which affects the diagnosis of the disease. For instance, recent studies report a discordance level between 41 pathologists of up to 0.45 in terms of the kappa value over a set of 38 images. Recently, Deep learning models have emerged as an alternative to classify and support cancer stratification tasks, following the Gleason system. However, these models remain limited to learn the complexity of observed histological patterns because of the high variability to represent each cancer degree, with marked overlapping representation among classes. Besides, the representations may be biased to a specific observer, and the training samples may result limited with an inherent class imbalance, available in clinical scenarios. This work introduces a multitask learning approach to represent intra and inter-Gleason relationships from more challenging samples, following two branches: a triplet loss and a conditioned cross-entropy. In such sense, the approach uses a semi-hard triplet distance metric as the main task to tackle Gleason stratification, training with challenging positive and negative patches on a particular Gleason level. Then, an auxiliary task was herein proposed to regularize embedding space, allowing to deal with the high inter and intra appearance of the four grades, considered in Gleason stratification. As a regularizer, the proposed approach uses a cross-entropy rule. The proposed approach was validated on a public dataset with 886 tissue micro-array spots, that in the test subset was delineated independently by two expert uropathologists, according to the Gleason grading system. The proposed approach achieves a general classification of average accuracy of 66% and 64%, for two experts without statistical difference. Additionally, the proposed approach achieved an average accuracy of 73% in patches where both pathologists were agree, showing the robustness of patterns learning from the approach. | |
dc.description.degreelevel | Maestría | |
dc.description.degreename | Magíster en Ingeniería de Sistemas e Informática | |
dc.description.googlescholar | https://scholar.google.com/citations?user=xBlpb7MAAAAJ&hl=es | |
dc.description.orcid | https://orcid.org/my-orcid?orcid=0000-0001-5056-9674 | |
dc.format.mimetype | application/pdf | |
dc.identifier.instname | Universidad Industrial de Santander | |
dc.identifier.reponame | Universidad Industrial de Santander | |
dc.identifier.repourl | https://noesis.uis.edu.co | |
dc.identifier.uri | https://noesis.uis.edu.co/handle/20.500.14071/11747 | |
dc.language.iso | eng | |
dc.publisher | Universidad Industrial de Santander | |
dc.publisher.faculty | Facultad de Ingeníerias Fisicomecánicas | |
dc.publisher.program | Maestría en Ingeniería de Sistemas e Informática | |
dc.publisher.school | Escuela de Ingeniería de Sistemas e Informática | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.rights.accessrights | info:eu-repo/semantics/openAccess | |
dc.rights.coar | http://purl.org/coar/access_right/c_abf2 | |
dc.rights.creativecommons | Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) | |
dc.rights.license | Attribution-NonCommercial 4.0 International (CC BY-NC 4.0) | |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.subject | Cáncer de próstata | |
dc.subject | Aprendizaje profundo | |
dc.subject | Representaciones embebidas | |
dc.subject | Puntuaciones de Gleason | |
dc.subject.keyword | Prostate Cancer | |
dc.subject.keyword | Deep Learning | |
dc.subject.keyword | Embedded Representations | |
dc.subject.keyword | Gleason Score | |
dc.title | Un modelo de representación profunda para clasificar grados de Gleason de cáncer de próstata | |
dc.title.english | A Deep Representation Model to Classify Prostate Cancer Gleason Degrees | |
dc.type.coar | http://purl.org/coar/resource_type/c_bdcc | |
dc.type.hasversion | http://purl.org/coar/version/c_b1a7d7d4d402bcce | |
dc.type.local | Tesis/Trabajo de grado - Monografía - Maestría | |
dspace.entity.type |
Files
Original bundle
1 - 3 of 3
No Thumbnail Available
- Name:
- Carta de autorización.pdf
- Size:
- 267.04 KB
- Format:
- Adobe Portable Document Format
No Thumbnail Available
- Name:
- Nota de proyecto.pdf
- Size:
- 170.03 KB
- Format:
- Adobe Portable Document Format
License bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- license.txt
- Size:
- 2.18 KB
- Format:
- Item-specific license agreed to upon submission
- Description: