Utilize este identificador para citar ou criar um atalho para este documento: https://hdl.handle.net/10923/15817
Tipo: masterThesis
Título: Semi-supervised learning methods for unsupervised domain adaptation in medical imaging segmentation
Autor(es): Ballester, Pedro Lemos
Orientador: Barros, Rodrigo Coelho
Editora: Pontifícia Universidade Católica do Rio Grande do Sul
Programa: Programa de Pós-Graduação em Ciência da Computação
Data de Publicação: 2019
Palavras-chave: ENGENHARIA BIOMÉDICA
PROCESSAMENTO DE IMAGENS - TÉCNICAS DIGITAIS
MEDICINA
Resumo: Aplicações com aprendizado de máquina possuem diversas suposições sobre o cenário em que são colocadas. Uma suposição comum é a de que o ambiente de teste segue a mesma distribuição dos dados de treino. Essa suposição é sistematicamente quebrada em cénarios do mundo real; a diferença entre essas distribuições é conhecida como domain shift. Adaptação de domínio não-supervisionada visa mitigar esse problema impulsionando o conhecimento dos modelos com dados do ambiente de teste. Uma das áreas mais sensíveis a domain shift é a de imagens médicas. Devido a heterogeneidade das distribuições de dados das máquinas de aquisição de imagens, os modelos tendem a variar sua performance preditiva quando lidam com imagens vindas de máquinas sem nenhum exemplo no conjunto de treino. Este trabalho propõe duas contribuições. Primeiramente, o uso de self ensembling em adaptação de domínio para segmentação de imagens médicas para segmentação de substância cinzenta na medula espinhal é introduzido. Em seguida, baseado no sucesso do self-ensembling, outros trabalhos recentes da literatura de aprendizado semi-supervisionado são adaptados para o contexto apresentado, nominalmente, unsupervised data augmentation e MixMatch. Foram conduzidos estudos de ablação e experimentos para compreensão do comportamento dos métodos e comparação dos seus melhores resultados. Os resultados indicam uma melhoria em relação a treinamento puramente supervisionado, além de demonstrar que os métodos recentes de aprendizado semi-supervisionado são promissores para o campo de adaptação de domínio em segmentação de imagens médicas.
Machine learning applications make several assumptions regarding the scenario where they are employed. One common assumption is that data distribution in the test environment follows the same distribution of the training set. This assumption is systematically broken in most real-world scenarios; the difference between these distributions is commonly known as domain shift. Unsupervised domain adaptation aims at suppressing this problem by leveraging knowledge with unlabeled data from the test environment. One of the most sensitive fields for domain shift is medical imaging. Due to the heterogeneity in data distributions from scanners, models tend to vary in predictive performance when dealing with images from scanners with no examples in the training set. We propose two contributions in this work. First, we introduce the use of self-ensembling domain adaptation in the field of medical imaging segmentation in a spinal cord grey matter segmentation task. Next, based on the success of self-ensembling, we adapt two other recent work from the semi-supervised learning literature to the same task, namely, unsupervised data augmentation and MixMatch. We conduct ablation studies and other experiments in order to understand the behavior of each method and compare their best results. The results show improvements over training models in a supervised learning fashion and demonstrate that recent semi-supervised learning methods are promising for domain adaptation in medical imaging segmentation.
URI: http://hdl.handle.net/10923/15817
Aparece nas Coleções:Dissertação e Tese

Arquivos neste item:
Arquivo Descrição TamanhoFormato 
000495999-Texto+Completo-0.pdfTexto Completo4,24 MBAdobe PDFAbrir
Exibir


Todos os itens no Repositório da PUCRS estão protegidos por copyright, com todos os direitos reservados, e estão licenciados com uma Licença Creative Commons - Atribuição-NãoComercial 4.0 Internacional. Saiba mais.