Use este identificador para citar ou linkar para este item: http://hdl.handle.net/123456789/6368
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.authorLIMA, José Guilherme Pereira-
dc.date.accessioned2023-05-23T19:06:38Z-
dc.date.available2023-05-23T19:06:38Z-
dc.date.issued2021-04-29-
dc.identifier.urihttp://hdl.handle.net/123456789/6368-
dc.descriptionAbstract Melanoma is one of the most severe skin cancer types due to its high mortality rate, which can achieve 70%. An early diagnosis of the disease is crucial as it increases the ten-year survival rate up to 97%. The segmentation of skin lesions is one of the essential steps of the diagnosis process for accurate melanoma detection. However, even for specialist doctors, segmenting these lesions is costly and challenging due to the wide variety of stains, which can have irregular edges, different dimensions, and colors, and due to the high amounts of exams to analyze. Automatic detection of the lesion area for segmentation proves to be an important area of study so that the specialist doctor can focus on the correct diagnosis of the disease itself. This work aims to compare popular convolutional neural network architectures and to propose a new model based on encoder-decoder architectures that reach parameters of efficiency and performance for the segmentation of dermoscopic images. Thus, a method based on Attention U-net was proposed, using pre-trained encoder and residual blocks for better optimization. The proposed model, called AER-Net (short for Attention Efficient Residual Unet), presented 87.7% and 79.5% in Dice Coefficient and Jaccard index for ISIC Archive dataset and proved that the model can assist in the process for automatic skin cancer diagnosis.pt_BR
dc.description.abstractResumo O melanoma é um dos tipos de câncer de pele mais graves devido à sua alta taxa de mortalidade, que pode chegar a 70%. Um diagnóstico precoce da doença é crucial, pois aumenta a taxa de sobrevivência de dez anos em até 97%. A segmentação das lesões cutâneas é uma das etapas essenciais do processo de diagnóstico para a detecção precisa do melanoma. Porém, mesmo para médicos especialistas, segmentar essas lesões é custoso e desafiador pela grande variedade de manchas, que podem ter bordas irregulares, dimensões e cores diferentes, e pela grande quantidade de exames a serem analisados. A detecção automática da área da lesão para segmentação mostra-se uma importante área de estudo para que o médico especialista possa se concentrar no diagnóstico correto da própria doença. Este trabalho tem como objetivo comparar arquiteturas de redes neurais convolucionais populares e propor uma novo modelo baseado em arquiteturas encoder-decoder que atinja parâmetros de eficácia e desempenho para a segmentação de imagens dermatoscópicas. Assim, foi proposto um método baseado em Attention U-net, utilizando encoder pré- treinado e blocos residuais para melhor optimização. O modelo proposto, chamado de AER-Net (simplificado de Attention Efficient Residual Unet), apresentou 87,7% e 79.5% em Coeficiente Dice e índice Jaccard respectivamente para base de imagens do ISIC Archive e comprovou que o modelo pode auxiliar no processo de diagnóstico automático de câncer de pele.pt_BR
dc.language.isootherpt_BR
dc.publisherUniversidade Federal do Maranhãopt_BR
dc.subjectmelanoma;pt_BR
dc.subjectfully convolutional network;pt_BR
dc.subjectsegmentação semântica.pt_BR
dc.subjectmelanoma;pt_BR
dc.subjectfully convolutional network;pt_BR
dc.subjectsemantic segmentation.pt_BR
dc.titleAttention Efficient Residual U-Net: uma rede neural para a segmentação de lesões de Pelept_BR
dc.title.alternativeAttention Efficient Residual U-Net: a neural network for the segmentation of skin lesionspt_BR
dc.typeOtherpt_BR
Aparece nas coleções:TCCs de Graduação em Ciência da Computação do Campus do Bacanga

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
JoséGuilhermePereiraLima.pdfTrabalho de Conclusão de Curso3,95 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.