Use este identificador para citar ou linkar para este item: http://hdl.handle.net/123456789/10421
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.authorSOARES, Ed Frank Rocha-
dc.date.accessioned2026-02-23T14:42:35Z-
dc.date.available2026-02-23T14:42:35Z-
dc.date.issued2026-01-26-
dc.identifier.urihttp://hdl.handle.net/123456789/10421-
dc.description.abstractRESUMO: O presente estudo teve como objetivo é identificar a assertividade das questões do exame e analisar divergência da resposta oficial e da inteligência artificial. Pode- se afirmar que o objetivo é duplo, primeiro identificar a assertividade das questões do exame entre 2022 a 2025 e segundo analisar as questões com gabarito divergentes nas edições de 2022.1, 2022.2, 2023.1, 2024.2, 2025.1 e 2025.2. Esta monografia é classificada como descritiva, documental e de abordagem qualitativa, constituída por 8 edições das provas do exame de suficiência entre 2022 a 2025. Os resultados evidenciam que a versão ChatGPT 5.2 Instant apresentou desempenho notavelmente superior nas provas aplicadas pela Fundação Getúlio Vargas (FGV), com assertividade acima de 91% em todas as edições sob sua responsabilidade, enquanto no Instituto Consulplan apenas uma edição superou esse patamar. Como limitação, pesquisa restringiu-se à análise das quatro últimas edições do exame aplicado pelo Instituto Consulplan e das quatro edições já realizadas pela Fundação Getúlio Vargas (FGV) e o uso de uma única inteligência artificial nomeada ChatGPT 5.2 Instant, como pistas para trabalhos futuros, sugere-se ampliar as edições e diversificar os testes com outras inteligências artificiais.__ABSTRACT The present study aimed to identify the accuracy of the exam questions and to analyze discrepancies between the official answer key and the responses generated by artificial intelligence. It can be stated that the objective is twofold: first, to identify the accuracy of the exam questions from 2022 to 2025; and second, to analyze the questions with divergent answer keys in the editions 2022.1, 2022.2, 2023.1, 2024.2, 2025.1, and 2025.2. This monograph is classified as descriptive and documentary research with a qualitative approach, consisting of eight editions of the proficiency examination administered between 2022 and 2025. The results indicate that ChatGPT version 5.2 Instant demonstrated notably superior performance in the exams administered by Fundação Getúlio Vargas (FGV), achieving accuracy rates above 91% in all editions under its responsibility, whereas in the exams administered by Instituto Consulplan, only one edition exceeded this threshold. As a limitation, the research was restricted to the analysis of the last four editions of the exam administered by Instituto Consulplan and the four editions already conducted by Fundação Getúlio Vargas (FGV), as well as the use of a single artificial intelligence system, namely ChatGPT 5.2 Instant. As directions for future research, it is suggested to expand the number of editions analyzed and to diversify testing by including other artificial intelligence systems.pt_BR
dc.language.isootherpt_BR
dc.publisherUniversidade Federal do Maranhãopt_BR
dc.subjectinteligência artificial;pt_BR
dc.subjectexame de suficiência;pt_BR
dc.subjectChatGPT;pt_BR
dc.subjectartificial intelligence;pt_BR
dc.subjectsufficiency exam;pt_BR
dc.subjectChatGPT.pt_BR
dc.titleA inteligência artificial no contexto do exame do CRC: Uma análise das divergências de 2022 a 2025pt_BR
dc.title.alternativeArtificial intelligence in the context of the CRC exam: An analysis of discrepancies from 2022 to 2025.pt_BR
dc.typeOtherpt_BR
Aparece nas coleções:TCC de Graduação em Ciências Contábeis do Campus do Bacanga

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Ed_Frank_Soares.pdfTrabalho de Conclusão de Curso9,44 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.