Use este identificador para citar ou linkar para este item: http://hdl.handle.net/123456789/6930
Título: Um Novo Modelo de Rede Neural Interpretável para Predizer o Índice-h de Cientistas
Título(s) alternativo(s): A New Interpretable Neural Network Model to Predict the H-Index of Scientists
Autor(es): BARROS, José Emanuel Passos
Palavras-chave: Redes Neurais Artificiais;
Aprendizado Profundo;
Redes Acadêmicas;
LIME;
SHAP;
IA Explicável;
Índice-H
Artificial Neural Networks;
Deep Learning;
Academic Networks;
LIME;
SHAP;
Explainable AI;
H-index
Data do documento: 1-Ago-2023
Editor: UFMA
Resumo: Os modelos de aprendizado de máquina, como as redes neurais, tem desempenhado um papel crucial em diversos campos da ciência. Um deles é trazendo previsões altamente precisas sobre os alcances de longo prazo de cientistas. No entanto, apesar do seu amplo sucesso em suas predições, tais modelos sofrem de uma grande fraqueza, a falta de explicabilidade ou transparência de suas decisões e ações autônomas. Atualmente, devido à não compreensão do raciocínio por trás de uma decisão destes modelos, cientistas com menor status podem estar sendo prejudicados. Neste trabalho, propomos uma Rede Neural Artificial (RNA) para predizer o índice-h de pesquisadores e tornamos as suas decisões acessíveis à avaliadores humanos usando os explicadores LIME e SHAP. Este trabalho busca demonstrar que a utilização de um modelo explicável é uma decisão importante e, de fato, fundamental para confiarmos em suas decisões. Nossos experimentos demonstram que as explicativas providas podem auxiliar os tomadores de decisão a tomar decisões mais informadas e a detectar vieses propagados pelo modelo. Futuramente, pretende-se implantar este modelo em uma Aplicação Web para auxiliar pesquisadores, universidades e agências de pesquisa em suas atividades diárias.
Descrição: Machine learning models, such as neural networks, have played a crucial role in many fields of science. One is bringing highly accurate predictions about the long-term achievements of scientists. However, despite their widespread success in their predictions, such models suffer from a major weakness, the lack of explainability or transparency of their autonomous decisions and actions. Currently, due to the lack of understanding of the reasoning behind a decision made by these models, scientists with lower status may be being harmed. In this work, we propose an Artificial Neural Network (ANN) to predict researchers’ h-index and make its decisions accessible to human evaluators using LIME and SHAP explainers. This work seeks to demonstrate that the use of an explainable model is an important decision and, in fact, fundamental for us to trust its decisions. Our experiments demonstrate that the provided explanations can help decision makers to make more informed decisions and to detect biases propagated by the model. In the future, it is intended to implement this model in a Web Application to help researchers, universities and research agencies in their daily activities.
URI: http://hdl.handle.net/123456789/6930
Aparece nas coleções:TCCs de Graduação em Ciência da Computação do Campus do Bacanga

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
José Emanuel Passos Barros.pdfTCC de Graduação1,32 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.