Inteligência Artificial na Universidade Federal de Sergipe:
Como o Seu Uso pode Comprometer o Aprendizado em
Disciplinas Introdutórias de Programação
Alexis Cristian Pertile de Oliveira Filho
1
Bruno Danton Carneiro Silva
1
Dávisson Cavalcante Costa
1
Gabriel Ferreira Bernardo
1
Gabriel Santos de Souza
1
Wevellyn Victória da Silva Azevedo
1
1
Departamento de Computação
Universidade Federal de Sergipe (UFS) São Cristóvão, SE Brazil
Abstract. Digital tools can be found in various fields, with Artificial Intelli-
gence as a center piece, due to its speed and multifunctionality, being able to
act in a wide rage of tasks. The current investigation is classified as applied, of
exploratory and descriptive nature, adopting a mixed approach (qualiquantita-
tive). The current study serves as a survey on the use of artificial intelligence
in the academic space, helping out in the decision process in the industry. As a
result, data related to agent preference and dependency degree were collected.
Resumo. Ferramentas digitais podem ser encontradas em diversos campos,
tendo como ferramenta de destaque a Inteligência Artificial, devido à rapidez
e multifuncionalidade, podendo realizar uma ampla variedade de tarefas. A
presente investigação classifica-se como aplicada, de natureza exploratória e
descritiva, adotando uma abordagem mista (qualiquantitativa). O presente es-
tudo serve como pesquisa de opinião do uso de inteligência artificial generativa
no ambiente acadêmico, auxiliando no processo de tomada de decisões na in-
dústria. Como resultado, dados em relação à preferência de agente e grau de
dependência foram coletados.
1. Introdução
Ferramentas digitais podem ser encontradas em diversos campos [Cornélio 2021], tendo
como ferramenta de destaque a Inteligência Artificial, devido à rapidez e multifuncionali-
dade, podendo realizar uma ampla variedade de tarefas [Marr 2025]. No meio acadêmico,
o uso dessas ferramentas gera incertezas. A utilização inconsequente de Large Language
Models (LLMs) traz riscos como a dependência criativa e decisória, limitando o desen-
volvimento crítico dos universitários [Marr 2023].
Esse uso impacta negativamente a retenção de conhecimento [Lee et al. 2025].
Embora focado em profissionais, o resultado é relevante para a educação. Pesquisa do
Massachusetts Institute of Technology (MIT) [Kosmyna et al. 2025] corroborou esse ce-
nário: participantes que utilizaram Inteligência Artificial (IA) tiveram desempenho infe-
rior comparado aos que usaram mecanismos de busca ou apenas o cérebro. Mesmo ao
alternarem para tarefas sem auxílio, o grupo que iniciou com IA manteve desempenho
pior.
A popularização de LLMs como o ChatGPT no meio acadêmico torna o tema re-
levante. É necessário compreender o impacto do uso indiscriminado no amadurecimento
cognitivo, incluindo a capacidade de aprendizado, tomada de decisões e pensamento crí-
tico. Uma revisão sistemática de 70 estudos [Delikoura et al. 2025] revelou que a interação
frequente com LLMs pode provocar um efeito de “compreensão superficial” do conteúdo
e dependência da ferramenta. A pesquisa visa investigar os efeitos do uso excessivo de
geradores de texto em disciplinas de programação e suas consequências, como a redução
da criatividade, raciocínio lógico, memória e atenção.
A importância da pesquisa abrange o contexto educacional e o mercado de tra-
balho, visto que estudantes dependentes de tecnologia serão os futuros profissionais. A
análise questiona como tratar a dependência de IAs e garantir a formação crítica em uma
realidade automatizada. A solução reside na administração do uso consciente e equili-
brado da tecnologia, não em proibição, visando resultados educacionais significativos.
O objetivo geral deste artigo é buscar uma forma de integrar a IA na educação
dessas disciplinas, em conjunto com os professores, visando potenciar o ensino assistido
por tecnologia sem comprometer o desenvolvimento do raciocínio crítico e a autonomia
dos estudantes.
Os objetivos específicos incluem:
1. Identificar a frequência do uso de inteligência artificial pelos alunos.
2. Mapear os efeitos percebidos por professores na capacidade cognitiva.
3. Investigar a correlação entre a complexidade dos problemas de programação pro-
postos e a recorrência ao uso de ferramentas generativas.
2. Referencial Teórico
Como LLMs são uma nova e popular tecnologia [OpenAI 2025], torna-se necessário me-
dir o impacto que o seu uso pode causar. Seja desde ao consumo de eletricidade [Jia
2024], até, como foco deste artigo, o aprendizado [Al Azri et al. 2025]. Neste trabalho,
será avaliado o impacto destas ferramentas para a aprendizagem de programação, medi-
ante uma pesquisa com os discentes ingressantes do período 2025.1. Isso auxiliará, por
exemplo, no momento de decisão dos docentes, quando forem organizar o que irão fazer
a respeito do uso destas tecnologias para as novas matérias da reformulação da grade, viz.
“Programação A”, “Programação B” e “Programação C”.
Large Language Models, exemplificados pelo ChatGPT e Gemini, constituem mo-
delos de Inteligência Artificial Generativa (IAG) treinados em extensos conjuntos de da-
dos textuais [Raffel et al. 2019]. Tais sistemas viabilizam a geração de textos, a produção
de códigos e a sumarização de informações [Marr 2025]. Observa-se a difusão dessas
tecnologias no meio acadêmico a partir de 2023, motivada pela acessibilidade e pela apli-
cabilidade prática das soluções oferecidas [Jensen et al. 2025]. Verifica-se que a dispo-
nibilidade de respostas imediatas, especificamente em tarefas de programação, altera a
dinâmica do aprendizado discente. Discute-se, consequentemente, a atualização curricu-
lar visando a preservação e o desenvolvimento do raciocínio lógico [Gan et al. 2023].
2.1. Inteligência Artificial
A Inteligência Artificial precede a própria consolidação da computação moderna. Em seu
trabalho seminal de 1950, Alan Turing propôs a questão: “podem as máquinas pensar?”,
estabelecendo o “Jogo da Imitação” (posteriormente conhecido como “Teste de Turing”)
como um critério operacional para a inteligência [Turing 1950]. No entanto, o termo “In-
teligência Artificial” foi formalmente cunhado apenas em 1956, durante a conferência de
Dartmouth, onde John McCarthy e outros pesquisadores propuseram que “cada aspecto do
aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser des-
crita com tamanha precisão que uma máquina pode ser feita para simulá-la” [McCarthy
et al. 1956]. Desde então, a área evoluiu de sistemas baseados em regras simbólicas para
abordagens estatísticas robustas.
Pesquisa neste campo auxiliou no desenvolvimento do conceito moderno de com-
putador [Turing 1937]. A Inteligência Artificial é importante na área de jogos, sejam
eles de tabuleiro, mediante a criação de programas jogadores [Silver et al. 2018], auxli-
ando no desenvolvimento de novas estratégias e dos próprios jogadores [Anicker 2025],
ou digitais, sendo crucial no desenvolvimento de componentes como non-playable cha-
racters (NPCs), servindo como aliados ou adversários do jogadores [Maciá-Lillo et al.
2025]. Auxiliam também no processo de desenvolvimento de software, mediante geração
de código com programas como o GitHub Copilot [Chen et al. 2021]. Em 2023, a plata-
forma GitHub divulgou que cerca de 46% de código novo subido foi gerado pelo Copilot
[Dohmke 2023].
Tem-se como pesquisadores renomados nesta área Alan Turing [Turing 1950],
considerado o “pai da ciência da computação teórica” [Cooper e Leeuwen 2013] e Ri-
chard Stallman [Stallman e Sussman 1977], fundador do movimento de Software Livre
[Stallman 1983]. O movimento de Software Livre oferece diversos programas gratuitos,
tendo como destaque o GNU Compiler Collection (GCC) [Stallman et al. 2025], coleção
de compiladores do projeto GNU’s Not Unix (GNU). Outro colaborador importante da
área é John McCarthy [McCarthy et al. 1956], desenvolvedor da família de linguagens de
programação Lisp e o conceito de coletor de lixo, componente crucial no desenvolvimento
de linguagens de programação de maior nível [McCarthy 1960].
A área enfrentou diversas dificuldades durante o chamado AI Winter [Crevier
1993], que podem ser pensadas como vencidas, devido ao boom evidenciado. Muitos opi-
nam que a área encontra-se numa espécie de “bolha especulativa”, sequer gerando lucro
ou empregos [Louadi 2025]. Outra problemática moderna na área é a do gasto de energia
e consumo de água, visto que os data centers criados para abrigar as implementações mo-
dernas (viz. LLMs) exigem bastante eletricidade [Jia 2024]. Mais um desafio importante
é o discutido no presente artigo, de que o uso de agentes modernos podem comprometer
o processo de aprendizado, ao substituir o potencial trabalho mental que um usuário po-
deria colocar em uma tarefa [Martín-Gómez e González Ruiz 2025; Melo e Moura 2023;
B. Xie et al. 2024; Woodbridge et al. 2025, ver Trabalhos Relacionados].
Mesmo que apresente grande avanço, o campo ainda não atingiu o seu objetivo
principal de Inteligência Artificial Geral (AGI) [Yenduri et al. 2025]. AGI é um tipo de
inteligência artificial teórico o qual, em contrapartida à IA moderna, a Weak AI, se asse-
melha mais à um ser humano, por ser capaz de aprender e raciocinar nos mais variados
cenários. O devensolvimento de Large Language Models conta como um grande passo
nesta direção. Todavia, não significa o fim da jornada. Yenduri et al. (2025) descrevem
que, para uma inteligência artificial atingir o nível de AGI, deve ter as seguintes capa-
cidades: Comunicação e Linguagem (Interação Física e Habilidades Motoras, Percepção
sensorial, Processamento de Linguagem Natural (NLP)), Habilidades Emocionais e Soci-
ais (Criatividade, Inteligência Social e Emocional) e Habilidades Cognitivas (Raciocínio
e Resolução de Problemas, Planejamento, Aprendizado e Adaptação, Representação de
Conhecimento, Consciência e autocosciência).
2.2. Aprendizado de Máquina
Dentro do vasto campo da IA, destaca-se o Aprendizado de Máquina (Machine Learning)
como o subcampo responsável pelos avanços mais significativos das últimas décadas. Di-
ferentemente da programação tradicional, onde as regras são explicitamente codificadas,
o Aprendizado de Máquina foca no desenvolvimento de algoritmos que melhoram seu de-
sempenho automaticamente através da experiência. A definição formal amplamente aceita
é dada por Mitchell (1997): diz-se que um programa de computador aprende a partir da
experiência E, em relação a uma classe de tarefas T e medida de desempenho P , se seu
desempenho em T , medido por P , melhora com a experiência E. Essa mudança de para-
digma permitiu a resolução de problemas complexos, como reconhecimento de padrões e
previsões estatísticas, que eram intratáveis via programação convencional.
A aplicação dessas tecnologias no cenário educacional introduz novos paradigmas
e desafios. A introdução de modelos generativos, uma vertente avançada do Machine Le-
arning (ML), exige uma reavaliação das práticas pedagógicas. A UNESCO (2023) destaca
que, embora a IA generativa ofereça oportunidades para personalizar o aprendizado, a im-
plementação requer diretrizes éticas rigorosas para garantir que a tecnologia aumente as
capacidades humanas em vez de substituí-las ou atrofiar o pensamento crítico. Observa-
se, portanto, uma tensão entre a eficiência oferecida pelos sistemas automatizados e a
necessidade de preservar a integridade cognitiva dos estudantes [Marr 2023; Gan et al.
2023].
O ML faz-se presente em diversos campos, como na indústria, durante o desen-
volvimento de gêmeos digitais [Fuller et al. 2020], visão computacional [Gallego et al.
2022], biologia computacional [Elnaggar et al. 2022], medicina, na detecção de doen-
ças [Tjoa e Guan 2021], condução autônoma [Yurtsever et al. 2020], internet das coisas
[Shafique et al. 2020], classificação de imagens [Amani et al. 2020] e na agricultura de
precisão utilizando da capacidade de classificação de imagens para detectar doenças e
plantas invasoras [Sharma et al. 2021].
Por mais que seja uma ferramenta importante para várias áreas, o processo de
Aprendizado de Máquina pode se deparar com algumas dificuldades. Pode ser possível
que os dados de treinamento não sejam suficientes, ou que o modelo não tenha o contexto
necessário para tarefas mais específicas [von Rueden et al. 2023], as decisões das máqui-
nas tendem a não ser bem compreendidas, devido ao modelo “caixa preta” do processo
de aprendizado [Tjoa e Guan 2021] e as empresas tendem a não ter uma estrutura sólida
para o lançamento de produtos, podendo tal problema ser resolvido pela implementação
de MLOps [Kreuzberger et al. 2023].
Apesar de toda a evolução e importância do Aprendizado de Máquina, ele não é
perfeito e enfrenta barreiras significativas que atrapalham seu uso no mundo real. Com
isso, o maior problema é a exigência desses modelos na quantidade excessiva de dados
para aprender, recurso nem sempre disponível em cenários específicos [von Rueden et al.
2023]. Além disso, existem falhas que mostram claramente a necessidade de modelos
mais avançados e transparentes, ou seja, superar essas lacunas é essencial para que a IA
atinja todo o seu potencial. O dilema da opacidade, conhecido como “caixa preta” [von
Rueden et al. 2023], afirma que é difícil confiar em uma decisão tomada pela máquina se
ela não consegue explicar sua lógica.
2.3. Redes Neurais Artificiais
A evolução do Aprendizado de Máquina para lidar com dados de alta complexidade e não-
linearidade fundamenta-se no desenvolvimento das Redes Neurais Artificiais (RNAs).
Inspiradas biologicamente no funcionamento do sistema nervoso central, as RNAs tive-
ram gênese teórica estabelecida por McCulloch e Pitts (1943), que propuseram o primeiro
modelo matemático de um neurônio artificial. Nesse modelo, a unidade de processamento
recebe múltiplos sinais de entrada, pondera-os através de pesos sinápticos e aplica uma
função de ativação para determinar a saída. Embora os modelos iniciais fossem limita-
dos em capacidade de representação, o desenvolvimento do algoritmo de retropropagação
(backpropagation) permitiu o ajuste eficiente desses pesos em redes com múltiplas cama-
das, viabilizando o aprendizado supervisionado complexo [Rumelhart et al. 1986].
As contribuições mais importantes deste ramo encontram-se na área da saúde.
Neste campo, redes neurais artificiais auxiliam na identificação de convulsões [Y. Yang
et al. 2022], câncer [McKinney et al. 2020] e distúrbios cardiovasculares [Hannun et al.
2019; Somani et al. 2021]. Também auxiliam no campo de finanças, seja por sua capa-
cidade de análise de sentimentos [Mishev et al. 2020] ou pelo seu potencial de analisar
o próprio mercado [Zhang, Xiong et al. 2020; Ferreira et al. 2021]. Pela análise de sen-
timentos, são também capazes de detectar notícias potencialmente falsas [Mridha et al.
2021; Jiang et al. 2021; Hashmi et al. 2024; Ni et al. 2021] e dicursos potencialmente
odiosos [Mullah e Zainon 2021; Murshed et al. 2022; Alatawi et al. 2021].Através de re-
des adversárias generativas, é possível gerar conteúdo [Fui-Hoon Nah et al. 2023], como
imagens [Ramesh et al. 2021] e vídeos [Peebles e S. Xie 2023].
Nota-se na área participação de grandes empresas, como a Bytedance [Lin e X.
Yang 2024], Google [Silver et al. 2018; Abadi et al. 2016], Meta [Paszke et al. 2019;
Touvron et al. 2023], NVIDIA [Karras et al. 2019], OpenAI [Vaswani et al. 2017; Brown
et al. 2020; Chen et al. 2021; Ramesh et al. 2021] e a Tencent [Kong et al. 2025]. Empresas
menores, como a Stability AI e Hugging Face também colaboram no ramo [Rombach et
al. 2022; Heikkilä 2022]. A Google é o destaque entre os agentes maiores, pois seus
avanços levaram a criação da arquitetura transformer em Attention is All You Need”,
a base para os large language models modernos. Entre os menores, a Hugging Face se
destaca por oferecer uma forja git feita com foco na área, servindo até como casa para os
modelos das grandes empresas mencionadas [ByteDance 2024; Tencent 2025].
A dificuldade de explicar o funcionamento destas ferramentas aumenta conforme
mais camadas são adicionadas. Tal problemática é exacerbada em redes neurais profun-
das (deep neural networks), onde encontrar a origem (como um prompt) de uma previsão
pode chegar a ser até impossível, dificultando o processo de análise e a reprodutibili-
dade [Samek et al. 2021]. Também dependem de altas quantidades de dados e recursos
computacionais, o que, dependendo da área, nem sempre está disponível. Esse problema
pode ser resolvido pelo uso de técnicas de meta-aprendizado, isto é, uso das redes neurais
para melhorar os próprios algoritmos de aprendizado [Hospedales et al. 2022]. A resolu-
ção destas duas problemáticas resultarão em maior transparência e eficácia, permitindo a
implementação de redes neurais para os maios diversos casos de uso.
As RNAs possuem limitações críticas em interpretabilidade, eficiência e consumo
de recursos. O “problema da caixa preta” é o principal obstáculo: a opacidade dos pesos
internos impede a auditoria de decisões em áreas sensíveis [Tjoa e Guan 2021]. Modelos
atuais falham em cenários de Out-of-Distribution (OOD), onde variações mínimas nos
dados causam erros graves. Existe também a lacuna da dependência massiva de dados
rotulados e alto custo computacional, o que restringe o treinamento de redes profundas
a grandes corporações [Jia 2024]. No ensino de programação, essas falhas são eviden-
tes. Ferramentas baseadas em redes neurais entregam o código final, mas não detalham
o processo dedutivo. Essa falta de transparência omite a lógica subjacente, impedindo
que o aluno compreenda a causalidade entre o algoritmo e o resultado. A ausência de
explicações estruturadas impossibilita a correção de vícios de raciocínio, transformando
o aprendizado em uma reprodução mecânica de padrões estatísticos.
2.4. Deep Learning
O conceito de Deep Learning (Aprendizado Profundo) emerge como uma subcategoria
das RNAs, caracterizada pela utilização de múltiplas camadas ocultas de processamento
entre a entrada e a saída. Segundo Goodfellow et al. (2016), a profundidade dessas arqui-
teturas permite que o computador construa conceitos complexos a partir de conceitos mais
simples. Em uma abordagem de Deep Learning, as camadas iniciais podem identificar ca-
racterísticas básicas, como arestas em uma imagem, enquanto as camadas subsequentes
combinam essas características para identificar formas, objetos e, finalmente, cenas com-
pletas. Essa hierarquia de representações elimina a necessidade de extração manual de
características (feature engineering), que era um gargalo nos métodos tradicionais de IA.
A eficácia do Deep Learning reside na capacidade de generalização em grandes
volumes de dados. LeCun et al. (2015) explicam que essas técnicas aprimoraram dras-
ticamente o estado da arte em reconhecimento de fala, reconhecimento visual e proces-
samento de linguagem natural. O treinamento dessas redes envolve a minimização de
uma função de custo, ajustando iterativamente os parâmetros internos da rede para re-
duzir a discrepância entre a previsão do modelo e o resultado real. A arquitetura dessas
redes varia conforme a aplicação, incluindo Redes Neurais Convolucionais (CNNs) para
processamento de imagens e Redes Neurais Recorrentes (RNNs) para dados sequenciais
Hochreiter e Schmidhuber (1997), sendo estas últimas precursoras diretas da arquitetura
Transformer.
No entanto, a implementação de modelos de Deep Learning impõe custos com-
putacionais e energéticos significativos. A infraestrutura necessária para treinar modelos
profundos, especialmente aqueles com bilhões de parâmetros como os LLMs atuais, de-
manda data centers de grande escala. Estudos recentes, como o de Jia (2024), analisam
o impacto crescente da Inteligência Artificial no consumo global de eletricidade Strubell
et al. (2019). Verifica-se que a complexidade computacional não apenas eleva os custos
operacionais, mas também levanta questões sobre a sustentabilidade ambiental do avanço
tecnológico contínuo nessa área.
Sistemas de gestão de ensino superior estão se adaptando à aplicação de Deep Le-
arning, um modelo que vem se desenvolvendo de forma rápida. Segundo Fang et al. 2025,
essas ferramentas operam através de camadas de dados, modelos profundos e aplicação,
analisando o comportamento do estudante para personalizar o conteúdo. O estudo uti-
liza algoritmos avançados, como o de Predadores Marinhos, que otimizam essa precisão.
A principal lacuna, contudo, reside na complexidade de identificar e fornecer feedback
individual no ensino de programação, especificamente para falhas de lógica.
O potencial do aprendizado profundo para aprimorar a inteligência e a persona-
lização de aplicativos é destacado por Guo 2024. O autor analisa a inserção de redes
neurais em cursos de desenvolvimento móvel em Java, implementando funcionalidades
como reconhecimento de imagem e fala para atender à demanda industrial. A principal
lacuna identificada permanece no despreparo dos alunos para lidar com essas inovações,
devido à dificuldade de introduzir conceitos complexos de IA em currículos voltados para
a prática.
2.5. Arquitetura Transformer
A consolidação dos Grandes Modelos de Linguagem atuais fundamenta-se na introdu-
ção da arquitetura Transformer, proposta originalmente por Vaswani et al. (2017). Até
o surgimento dessa arquitetura, o processamento de sequências (como textos e áudios)
dependia majoritariamente de Redes Neurais Recorrentes e unidades Long Short-Term
Memory (LSTM). Tais modelos processavam os dados de forma sequencial, palavra por
palavra, o que impedia a paralelização eficiente do treinamento e limitava a capacidade do
sistema de “lembrar” contextos distantes dentro de um parágrafo longo. O modelo Trans-
former rompeu com esse paradigma ao dispensar a recorrência em favor de mecanismos
de atenção pura, permitindo o processamento simultâneo de toda a sequência de dados.
Como anteriormente mencionado, o desenvolvimento desta arquitetura revoluci-
onou o desenvolvimento de Large Language Models [Raiaan et al. 2024]. A partir dela,
modelos como o Bidirectional Encoder Representations from Transformers (BERT) [De-
vlin et al. 2019] da Google e o Generative Pre-trained Transformer (GPT) da OpenAI
puderam ser desenvolvidos [Radford et al. 2018]. O mais importante destes é o GPT, pois
a partir dele foi desenvolvido o GPT-3, divulgado em Brown et al. (2020), que, unido ao
trabalho de Ouyang et al. (2022), trouxe o ChatGPT ao mundo, popularizando o campo
da inteligência artificial [Gupta et al. 2023].
Tem-se como entidades importantes para esta tecnologia a Google, por ser uma
das fundadoras [Vaswani et al. 2017], além de continuar a pesquisa na área [Devlin et al.
2019; Raffel et al. 2019], o Instituto de Inteligência Artificial Allen, em conjunto à Univer-
sidade de Washington, também se destacam, pela criação do método de embeddings from
language model (ELMo) [Peters et al. 2018], predecessor do BERT. A OpenAI, como an-
teriormente mencionado, contribuiu para o ramo com o desenvolvimento do GPT, sendo
a arquitetura Transformer o componente focal de seus modelos de texto [Radford et al.
2018], imagem [Ramesh et al. 2021] e vídeo [Peebles e S. Xie 2023].
Comparados a Redes Neurais Convolucionais comuns, transformers exigem maior
custo computacional, o que resulta em aumentos no tempo de treinamento e uso de memó-
ria. Tal exigência escala conforme o tamanho do dataset [Sharifi e Safari 2025]. Esse fato
é observável em múltiplos ramos, geralmente devido à complexidade quadrática (O
n
2
) de
memória do processo de self-attention, mas pode ser resolvido [Y.-Q. Yang et al. 2025].
Além do fator computacional, também exigem maiores quantidades de dados para treina-
mento, que pode ser inviável dependendo da área, ou até trazer problemas relacionados à
privacidade, como no caso da área classificação de imagens médicas [Hussain et al. 2025].
No campo de super-resolução de imagens de satélite, transformers apresentam
menor desempenho em imagens próximas ao infravermelho [Sharifi e Safari 2025]. Em
processamento de imagens geral, modelos de compreensão espacial 3D são ainda inova-
ções [Y.-Q. Yang et al. 2025]. A possibilidade de uma arquitetura “híbrida” que une o
melhor das CNNs com o melhor dos transformers ainda está sendo explorada [Hussain
et al. 2025]. O uso desta tecnologia em áreas como análise sentimental é também outra
novidade [Ding et al. 2025]. A arquitetura, quando executada em escalas maiores, é in-
compatível com dispositivos de menor desempenho, como embarcados e vestíveis, mas
pode ser otimizada para o uso em tais plataformas [Busia et al. 2025].
2.6. Large Language Models
Os Large Language Models representam a aplicação da arquitetura Transformer em uma
escala massiva, tanto em termos de parâmetros computacionais quanto de volume de da-
dos de treinamento. De acordo com Zhao et al. (2023), o termo Large refere-se a modelos
que contêm de dezenas a centenas de bilhões de parâmetros. Diferentemente de modelos
menores, os LLMs exibem “habilidades emergentes”, ou seja, capacidades de raciocí-
nio e resolução de problemas que não foram explicitamente programadas, mas que sur-
gem espontaneamente à medida que a complexidade do modelo ultrapassa certos limiares
computacionais.
O desenvolvimento desta tecnologia revolucionou o ramo de processamento de
linguagem natural, dando um passo na direção de “máquinas pensantes” [Raiaan et al.
2024; Turing 1950], servindo como uma ferramenta auxiliar para trabalhadores do conhe-
cimento. Isso é notável principalmente em modelos mais recentes, que “aparentam” ter a
capacidade de raciocínio [Huang e Chang 2023]. Tais tecnologias explodiram no zeitgeist
cultural moderno, com ferramentas como o ChatGPT atingindo mais de 100 milhões de
usuários em menos de dois meses de lançamento [Gupta et al. 2023]. Devido a esse ra-
ciocínio percebido, pesquisadores estão implementando LLMs em setores cruciais, como
cibersegurança e saúde [Ferrag et al. 2024; Qiu et al. 2023].
A disseminação dos LLMs transcende o âmbito acadêmico, encontrando usuários
renomados em setores que demandam alta densidade de processamento de informação.
No campo do desenvolvimento de software, engenheiros de empresas como Microsoft
e Meta utilizam modelos integrados para otimização de fluxo de trabalho, enquanto no
setor financeiro, instituições como o JPMorgan Chase exploram LLMs para análise de
risco e sumarização de relatórios complexos [Ferreira et al. 2021]. Além disso, figuras
proeminentes na democratização da tecnologia, como Andrew Ng e Andrej Karpathy, têm
sido fundamentais ao demonstrar como essas ferramentas podem atuar como “copilotos”
cognitivos para estudantes e profissionais de diversas áreas. No contexto educacional, o
uso por discentes de instituições de elite, como o MIT e a própria Universidade Federal de
Sergipe, coloca esses modelos no centro da discussão sobre a evolução das competências
digitais, transformando o LLM de um simples gerador de texto em um agente ativo na
resolução de problemas interdisciplinares.
Entretanto, a simples previsão de texto não garante que o modelo seja útil ou se-
guro para interação humana. Para mitigar a geração de conteúdo tóxico ou alucinatório,
aplica-se a técnica de Aprendizado por Reforço com Feedback Humano (RLHF). Con-
forme detalhado por Ouyang et al. (2022), essa metodologia consiste em coletar avalia-
ções humanas sobre as respostas geradas pelo modelo e treinar uma “função de recom-
pensa” que guia o LLM a alinhar suas saídas com as intenções e valores do usuário. Foi
a implementação bem-sucedida dessa técnica que permitiu a transição de modelos pura-
mente probabilísticos (como o GPT-3 original) para assistentes conversacionais instruídos
(como o ChatGPT e o Gemini).
Existem problemáticas que a comunidade jamais poderá solucionar. A principal,
adotada em sua maioria por filósofos da linguagem e da mente, é a de que máquinas, por
diferirem em estrutura do cérebro humano, são incapazes de pensar. Tal conclusão foi
estabelecida por Searle (1980) em seu artigo Minds, Brains, and Programs, e é discutida
até hoje na área [Bui 2025; Li et al. 2025; Schwitzgebel 2026; Zhang, Zou et al. 2025;
Khamassi et al. 2024]. Pensadores da antiguidade também chegaram a conclusões se-
melhantes [Descartes 1993]. Decorrente disto, é tido por alguns que LLMs são geradores
de bullshit [Trevisan et al. 2024; Free Software, Free Society 2015], isto é, pela com-
preensão “Frankfurtiana” da palavra, são geradores de afirmações indiferentes à verdade
[Frankfurt 2009].
2.7. Impactos na Educação e no Desenvolvimento do Raciocínio Lógico
A integração de Grandes Modelos de Linguagem (LLMs) no ambiente educacional pre-
cipitou uma transformação nas dinâmicas de ensino e aprendizagem, particularmente em
disciplinas que exigem raciocínio lógico estruturado, como a programação. Conforme
análise de Jensen et al. (2025), a academia oscila entre a percepção da IA como uma fer-
ramenta de personalização do ensino e o receio de que ela promova a atrofia de competên-
cias fundamentais. Embora a eficiência na produção de respostas seja inegável, investiga-
se se a facilidade de obtenção de soluções prontas compromete a retenção do conheci-
mento e o desenvolvimento de habilidades cognitivas profundas.
Estudos recentes baseados em neurociência fornecem evidências quantitativas so-
bre os efeitos dessa dependência tecnológica. Em uma investigação utilizando eletroen-
cefalografia (EEG), Kosmyna et al. (2025) demonstraram que estudantes que utilizam
LLMs para realizar tarefas acadêmicas exibem uma conectividade cerebral significativa-
mente menor nas redes neurais associadas à memória e ao planejamento, em comparação
com aqueles que realizam a tarefa sem auxílio ou apenas com motores de busca. O estudo
introduz o conceito de “dívida cognitiva”, sugerindo que o uso contínuo dessas ferramen-
tas sem o devido esforço mental resulta em um desempenho neural e comportamental
inferior a longo prazo, mesmo quando o estudante volta a realizar tarefas sem a ferra-
menta.
No contexto específico do pensamento crítico, observa-se uma correlação inversa
entre a confiança na IA e o engajamento cognitivo do aluno. Lee et al. (2025) relatam,
através de uma pesquisa com trabalhadores do conhecimento [Drucker et al. 1967], que
altos níveis de confiança na precisão do modelo levam a uma redução na verificação dos
resultados e no exercício do ceticismo. Esse fenômeno é particularmente crítico no ensino
de programação, onde o processo de “depuração” (debugging) e a compreensão da sintaxe
são essenciais para a formação da lógica algorítmica. Ao delegar a escrita do código à IA,
o estudante pode perder a oportunidade de vivenciar o erro construtivo, etapa fundamental
para a consolidação do aprendizado.
Delikoura et al. (2025) alertam para o risco do “aprendizado superficial” decor-
rente de “saídas superficiais”. A facilidade com que os LLMs geram textos fluentes e
códigos funcionais pode criar uma ilusão de competência, onde o estudante acredita do-
minar o conteúdo apenas por ser capaz de gerar o produto final, sem compreender os
processos subjacentes. Esse cenário impõe desafios urgentes às instituições de ensino,
que precisam reformular métodos de avaliação para focar menos no produto final e mais
no processo de raciocínio e na defesa oral das soluções apresentadas.
Em suma, a literatura atual indica que, embora os LLMs possuam potencial como
tutores auxiliares, seu uso irrestrito e não supervisionado tende a substituir, em vez de
complementar, o esforço cognitivo necessário para o aprendizado profundo. Diante da
onipresença dessas ferramentas, conclui-se que a adaptação curricular não é apenas dese-
jável, mas imperativa para garantir que as futuras gerações de profissionais mantenham a
capacidade de pensar, analisar e criar de forma autônoma.
3. Trabalhos Relacionados
A integração de LLMs no ensino de programação tem despertado debate crescente na li-
teratura acadêmica recente. Diversos estudos investigam como ferramentas baseadas em
Inteligência Artificial Generativa influenciam o desempenho técnico e o desenvolvimento
cognitivo de estudantes de computação [Martín-Gómez e González Ruiz 2025; Melo e
Moura 2023; B. Xie et al. 2024; Woodbridge et al. 2025]. A análise das pesquisas cor-
relatas revela dicotomia entre o aumento imediato da produtividade na escrita de código
e os riscos de uma compreensão superficial dos fundamentos algorítmicos. Esta seção
revisa quatro trabalhos fundamentais que abordam o impacto dessas tecnologias na auto-
nomia intelectual e na retenção de conhecimento por discentes em níveis introdutórios,
fundamentando a necessidade de novas abordagens pedagógicas.
Martín-Gómez e González Ruiz (2025) analisam, mediante uma pesquisa descri-
tiva, a integração da IA na educação superior, tendo como objetivo o treinamento dos
docentes para o uso crítico e didático da ferramenta. Foram envolvidos os cursos de Tec-
nologia da Educação e Educação Física (n = 103). Na etapa de pesquisa popular, 88%
dos estudantes envolvidos afirmaram que a inteligência artificial deveria ser didáticamente
implementada no ensino superior. Todavia, o trabalho envolveu estudantes de fora dos
cursos principais de tecnologia, viz. Engenharia De Computação, Ciência De Computa-
ção e Sistemas de Informação. A pesquisa foi realizada em uma universidade da Espanha,
portanto, é possível que suas conclusões não se apliquem num contexto nacional.
Melo e Moura (2023) discutem como o ChatGPT pode ser usado para criar exer-
cícios e ajudar os professores. O uso do ChatGPT no ensino de programação atua como
uma ferramenta de suporte capaz de identificar erros e sugerir correções e melhorias em
códigos, servindo como um assistente para os alunos que estão aprendendo a programar.
Os docentes também podem aproveitar o uso da ferramenta para analisar e sugerir me-
lhorias nos trabalhos dos discentes. Contudo, frente a essa abordagem que destaca os
benefícios do uso do ChatGPT, a nossa pesquisa na UFS investiga como essa facilidade
pode gerar consequências negativas, como dependência e comprometer o aprendizado da
lógica fundamental em disciplinas introdutórias de programação.
O estudo “Integrating Generative AI into Programming Education: Student Per-
ceptions and the Challenge of Correcting AI Errors” realizou uma pesquisa empírica de
abordagem quantitativa, baseada em experimentos educacionais em disciplinas introdu-
tórias de programação. A amostra foi composta por 211 estudantes de graduação matri-
culados no curso de Ciência da Computação e afins. O objetivo do trabalho foi avaliar
a capacidade dos estudantes em identificar e corrigir erros em códigos gerados por IA,
por meio de atividades nas quais os estudantes analisavam e depuravam esses códigos.
Os resultados apontam que muitos alunos apresentaram dificuldades significativas na de-
puração e compreensão conceitual do código produzido pela IA. Como lacunas, o estudo
aponta para a ausência de evidências acerca dos impactos do uso de IA na aprendizagem
à longo prazo.
Woodbridge et al. (2025) analisam o uso de técnicas automatizadas para identifi-
car, com foco na análise automatizada de políticas institucionais sobre o uso responsável
de inteligência artificial generativa no ensino superior e classificar políticas institucionais
relacionadas ao uso responsável de inteligência artificial generativa no ensino superior. A
amostra foi feita de 212 documentos com regras coletados de 22 instituições diferentes,
Os resultados indicam alta precisão na identificação dos temas e dos níveis de permissão
para o uso da IA, contribuindo para maior clareza e padronização das políticas educacio-
nais. A pesquisa foi conduzida com base em instituições de ensino dos Estados Unidos, o
que pode limitar a generalização dos resultados para outros contextos educacionais.
A literatura recente demonstra que, embora a IA Generativa ofereça suporte vali-
oso na correção de erros e na formulação de políticas institucionais, uma tendência de
dificuldade discente na depuração e compreensão conceitual profunda de códigos auto-
matizados. Nota-se que a maioria dos estudos foca em contextos internacionais (Espanha
e Estados Unidos) ou em perfis de estudantes fora das carreiras de computação stricto
sensu. Esta pesquisa diferencia-se ao preencher essa lacuna geográfica e demográfica, in-
vestigando especificamente o impacto do uso dessas ferramentas na autonomia intelectual
de estudantes de computação da Universidade Federal de Sergipe. Ao focar nos riscos de
dependência e na possível erosão da lógica fundamental, o presente trabalho justifica-se
pela necessidade de validar se os desafios globais de retenção de conhecimento se repro-
duzem no cenário acadêmico nacional.
4. Metodologia
Esta seção descreve o desenho da pesquisa, os procedimentos metodológicos adotados, os
materiais utilizados e as etapas de execução, organizadas de forma a garantir a reproduti-
bilidade do estudo e o alinhamento entre os objetivos propostos e os resultados esperados.
A presente investigação classifica-se como aplicada, de natureza exploratória e
descritiva, adotando uma abordagem mista (qualiquantitativa) [Wazlawick 2023; Shaw
2003]. Sua natureza aplicada justifica-se pelo objetivo de resolver um problema prático
identificado no ambiente académico: a necessidade de integrar ferramentas de IA no en-
sino de programação sem comprometer o desenvolvimento cognitivo dos discentes. Adi-
cionalmente, o estudo é exploratório devido à recência do fenômeno dos Large Language
Models e à escassez de dados específicos sobre o seu impacto na Universidade Federal
de Sergipe, bem como descritivo, pois procura mapear e descrever as características de
uso e as percepções de alunos e professores. A pesquisa foi realizada no Departamento
de Computação da UFS, tendo como público-alvo os discentes ingressantes do período
letivo 2025.1 matriculados nas disciplinas introdutórias de Programação Funcional e Pro-
gramação Imperativa.
Os objetivos específicos deste trabalho foram desdobrados em questões de pes-
quisa (QP) fundamentais para guiar a investigação. A primeira questão (QP1) busca iden-
tificar com que frequência e intensidade os alunos ingressantes utilizam ferramentas de
IA Generativa para a resolução de atividades de programação. A segunda (QP2) inves-
tiga qual é a percepção dos discentes sobre os efeitos dessas ferramentas na capacidade
cognitiva, especificamente na memória e no raciocínio lógico. Por fim, a terceira questão
(QP3) examina se existe uma correlação direta entre o nível de complexidade dos proble-
mas de programação propostos e a recorrência ao uso de ferramentas generativas pelos
estudantes.
Para a operacionalização da pesquisa, foram selecionados recursos com base na
sua acessibilidade e capacidade de análise de dados. Como instrumentos de coleta, foram
utilizados formulários eletrônicos (Google Forms) para a aplicação de questionários es-
truturados aos discentes. Para o processamento estatístico das respostas quantitativas e a
identificação de padrões de uso, foram empregadas ferramentas de análise baseadas na
linguagem Python com bibliotecas de dados. Além disso, a fundamentação teórica e a
comparação com trabalhos relacionados foram realizadas através de consultas a bases de
dados bibliográficas reconhecidas. A tabela a seguir detalha essas bases.
Bases de Dados Bibliográficos
ACM Digital Library
Arxiv
Google Scholar
IEEE Xplore
Tabela 1. Bases de Dados Bibliográficos
Os procedimentos adotados dividem-se em quatro fases estratégicas. Inicialmente,
realizou-se uma revisão da Literatura para levantar o estado da arte sobre LLMs na edu-
cação, focando em estudos recentes que abordam a “dívida cognitiva” e o “aprendizado
superficial”. A fase seguinte consistiu no desenvolvimento do instrumento, com a elabo-
ração de um questionário validado para verificar as hipóteses de dependência tecnológica
e redução da prática de debugging. Posteriormente, ocorreu a coleta de dados mediante
a aplicação do questionário aos alunos das disciplinas alvo ao final do semestre letivo,
garantindo uma amostragem representativa dos ingressantes. Por fim, a etapa de análise
e triangulação envolveu o processamento dos dados quantitativos para responder às ques-
tões de pesquisa e a comparação qualitativa com as percepções recolhidas, validando se o
cenário local reflete as tendências globais identificadas no referencial teórico.
O cronograma de execução foi estruturado da seguinte forma:
A eficácia da metodologia será avaliada através da consistência estatística dos
dados coletados e da capacidade de responder às perguntas de pesquisa formuladas. A
validação ocorrerá pela comparação dos resultados obtidos na UFS com estudos simila-
Figura 1. Fluxogramama do cronograma de execução.
res, como os realizados pelo MIT [Kosmyna et al. 2025] e Microsoft [Lee et al. 2025],
permitindo verificar se o fenômeno da redução do desempenho em tarefas não assistidas
se repete no contexto local.
5. Análise e Discussão dos Resultados
Esta seção tem como objetivo apresentar, analisar e discutir os dados obtidos através da
pesquisa de campo realizada com discentes dos cursos de Engenharia de Computação,
Ciência da Computação e Sistemas de Informação da Universidade Federal de Sergipe
. A análise visa confrontar os resultados empíricos com as Perguntas de Pesquisa (QP)
estabelecidas e com a literatura levantada no referencial teórico. Os dados foram cole-
tados mediante questionários aplicados a uma amostra de 26 estudantes de disciplinas
introdutórias de programação, permitindo um mapeamento quantitativo e qualitativo so-
bre a frequência de uso, a percepção cognitiva e os contextos de aplicação de ferramentas
de Inteligência Artificial Generativa. A tabela a seguir detalha as perguntas de pesquisa
elaboradas.
A primeira pergunta de pesquisa (QP1) buscou investigar: “Com que frequên-
cia e intensidade os alunos ingressantes utilizam ferramentas de IA Generativa para a
resolução de atividades de programação?”. Compreender a intensidade de uso é o pri-
meiro passo para dimensionar o impacto da tecnologia no ecossistema acadêmico local.
As figuras a seguir detalham a frequência, e as principais ferramentas utilizadas.
As Figuras 2 e 3 ilustram o perfil de adoção da tecnologia. A visualização por
gráfico de barras horizontais foi escolhida para evidenciar a distribuição da frequência
e a popularidade das ferramentas. Observa-se que o uso é predominante: somando-se as
categorias “Regularmente” (11) e “Frequentemente” (8), tem-se que 73% da amostra re-
corre à IA de forma habitual. Apenas 2 alunos indicaram uso “Sempre” e 5 “Raramente”.
Sigla Pergunta
QP1 Com que frequência e intensidade os alunos ingressantes utilizam ferramentas
de IA Generativa para a resolução de atividades de programação?
QP2 Qual é a percepção dos discentes sobre os efeitos dessas ferramentas na capa-
cidade cognitiva, especificamente na memória e raciocínio lógico?
QP3 Existe uma correlação direta entre o nível de complexidade dos problemas de
programação propostos e a recorrência ao uso de ferramentas generativas pelos
estudantes?
Tabela 2. Perguntas de Pesquisa
0 5 10 15 20 25
Contagem
Regularmente
Frequentemente
Raramente
Sempre
11
8
5
2
Com que frequência você utiliza ferramentas de Inteligência Artificial
(como ChatGPT, Gemini, Copilot) para auxiliar nas tarefas da
disciplina de programação?
Figura 2. Frequência de utilização de ferramentas de IA por discentes.
Quanto às ferramentas, nota-se uma liderança do Gemini (24 indicações), seguido pelo
ChatGPT (17 indicações), com presença marginal de outras ferramentas como Copilot e
DeepSeek.
Os resultados confirmam que a IA Generativa é uma realidade consolidada nas
disciplinas introdutórias da UFS. A alta frequência de uso alinha-se às observações de
Marr (2023) sobre o crescimento do uso global e otimismo em relação à IA. Não se trata
mais de uma tecnologia de nicho, mas de um recurso cotidiano para a maioria dos estu-
dantes. Um dado divergente da literatura tradicional, que frequentemente cita o ChatGPT
como sinônimo de LLM [OpenAI 2025], é a predominância do Gemini nesta amostra.
Isso pode indicar uma tendência local de preferência por ferramentas que ofereçam inte-
gração com o ecossistema Google ou janelas de contexto maiores/atualizadas, sugerindo
que o monopólio inicial da OpenAI está sendo contestado no ambiente acadêmico. A oni-
presença dessas ferramentas reforça a necessidade de adaptação curricular mencionada
por Jensen et al. (2025), visto que ignorar a ferramenta não é mais uma opção viável.
Em resposta à QP1, constata-se que a frequência de uso é alta e regular, carac-
terizando uma integração profunda da IA na rotina de estudos. A intensidade do uso,
majoritariamente concentrada no Gemini e ChatGPT, indica que os alunos ingressantes
veem a IA como parte integrante do “kit de ferramentas” do programador, superando a
fase de experimentação inicial.
0 5 10 15 20 25 30 35 40 45
Contagem
Gemini
ChatGPT
Copilot
DeepSeek
Blackbox
Perplexity
24
17
2
2
1
1
Quais ferramentas você utiliza?
Figura 3. Ferramentas de IA mais utilizadas pelos estudantes.
A segunda pergunta (QP2) investigou: “Qual é a percepção dos discentes sobre
os efeitos dessas ferramentas na capacidade cognitiva, especificamente na memória e ra-
ciocínio lógico?”. Esta análise busca contrastar a hipótese da “dívida cognitiva” com a
autopercepção dos estudantes. As figuras a seguir ilustram exatamente tal questão.
0 5 10 15 20 25
Contagem
Sinto que o aprendizado é igual
Sim, sinto que meu aprendizado é superficial
Não, sinto que aprendo mais lendo a resposta da IA
12
10
4
Você acredita que aprende menos quando utiliza a IA para gerar a
resposta de um exercício?
Figura 4. Autopercepção sobre a qualidade do aprendizado com uso de IA.
Os gráficos acima buscam correlacionar a sensação de aprendizado com a confi-
ança técnica. A Figura 4 revela uma divisão: enquanto 12 alunos sentem que o aprendi-
zado é igual, 10 (quase 40%) admitem que ele se torna superficial. Contudo, as Figuras 5
e 6 mostram uma alta autoconfiança: 17 alunos afirmam conseguir depurar sem a IA e 23
relatam confiança “Média” ou Alta” para realizar provas sem consulta. A análise destes
dados aponta para uma dissonância cognitiva potencial. A literatura, especificamente Your
Brain on ChatGPT, fornece evidências neurocientíficas de que o uso de IA reduz a co-
nectividade cerebral e gera “dívida cognitiva”. No entanto, os alunos da UFS demonstram
alta confiança em suas habilidades manuais (Figuras 5 e 6).
Essa confiança pode ser interpretada de duas formas: (1) os alunos estão de fato
utilizando a IA de forma complementar, lendo linha por linha conforme evidenciado na
figura 7 onde 12 alunos relatam essa prática), ou (2) estamos diante do efeito Dunning-
Kruger [USP 2023], onde a facilidade de gerar código com a IA infla a percepção de
competência do aluno, mascarando lacunas de conhecimento que apareceriam em uma
0 5 10 15 20 25
Contagem
Não, consigo debugar mesmo sem a IA
Não sei opinar
Sim, sinto que dependo da IA para achar erros
17
5
4
Você sente que o uso da IA atrapalha a sua capacidade de encontrar
erros (debugar) sozinho?
Figura 5. Percepção de dependência na tarefa de depuração (debugging).
0 5 10 15 20 25
Contagem
Alta
Média
Muito alta (Resolveria tranquilamente)
Baixa
12
11
2
1
Se você tivesse que fazer uma prova prática hoje, sem acesso à
internet ou IA, como avaliaria sua confiança para resolver os
problemas?
Figura 6. Nível de confiança para resolver problemas sem auxílio tecnológico.
avaliação prática rigorosa.
Ainda assim, o fato de 10 alunos reconhecerem explicitamente o aprendizado su-
perficial valida a preocupação de Delikoura et al. (2025) sobre os riscos de saídas super-
ficiais. uma consciência latente entre os discentes de que o atalho cognitivo pode ter
custos a longo prazo. Respondendo à QP2, a percepção dos discentes é ambivalente. Em-
bora mantenham altos níveis de confiança em sua autonomia e capacidade de resolução
de problemas sem IA, uma parcela significativa reconhece a superficialidade no processo
de aprendizagem assistido. Isso sugere que a dívida cognitiva é um fenômeno percebido,
mas talvez subestimado pelos estudantes em relação às suas reais capacidades técnicas.
A terceira pergunta (QP3) analisou: “Existe uma correlação direta entre o nível
de complexidade dos problemas de programação propostos e a recorrência ao uso de
ferramentas generativas pelos estudantes?”. A figura a seguir detalha onde os discentes
mais sentem a necessidade de utilizar agentes.
A Figura 8 destaca de forma contundente o contexto de uso: 20 respondentes
(77%) indicam que a IA é necessária principalmente na “Correção de erros de sintaxe
ou bugs (Depuração)”, enquanto apenas 5 a utilizam para a “Escrita da lógica inicial”.
Este resultado refuta a ideia de que os alunos usam a IA apenas para gerar o código do
zero para evitar o esforço lógico. A correlação identificada não é com a concepção do
algoritmo, mas com a etapa de correção e manutenção. Os alunos parecem enfrentar o
bloqueio não na lógica, mas na sintaxe e na identificação de erros.
Embora isso possa parecer um uso positivo (como um tutor), Lee et al. (2025)
alertam que a redução do esforço cognitivo, mesmo na verificação, diminui o ceticismo e a
0 5 10 15 20 25
Contagem
Leio linha por linha para tentar entender a lógica antes de usar
Uso apenas como inspiração e escrevo o meu próprio código
Leio superficialmente para ver se funciona
12
11
3
Quando a IA gera um código para você, o que você costuma fazer?
Figura 7. Ação tomada após a geração de código.
0 5 10 15 20 25
Contagem
Correção de erros de sintaxe ou "bugs" (Depuração)
Escrita da lógica inicial (o "esqueleto" do código)
Entendimento do enunciado do problema
20
5
1
Em qual etapa do desenvolvimento do código você sente maior
necessidade de usar a IA?
Figura 8. Etapa do desenvolvimento de código onde a necessidade de IA é maior.
atenção. Ao delegar o debugging para a IA, o aluno perde a oportunidade de aprender com
o erro construtivo, essencial para a fixação de conceitos em linguagens de programação.
A IA atua, portanto, como um redutor de frustração, mas possivelmente também como
um redutor da resiliência intelectual necessária para a programação complexa.
5.1. Tendências
O objetivo desta seção é sintetizar os principais padrões identificados durante a análise
dos dados e assegurar a confiabilidade das interpretações realizadas. Torna-se fundamen-
tal distinguir a identificação de tendências que foca no reconhecimento de padrões
comportamentais recorrentes da validação dos resultados, que busca atestar a vera-
cidade e a precisão dos achados através de métodos comparativos ou teóricos [Lee et
al. 2025]. Esta etapa é indispensável para reforçar a robustez, consistência e a credibi-
lidade do estudo, garantindo que as conclusões sobre o uso de IA no Departamento de
Computação da UFS não sejam apenas observações isoladas, mas reflexos de fenômenos
acadêmicos estruturados.
Neste estudo, entende-se por “tendências” os padrões de comportamento e per-
cepção que demonstram uma direção predominante no uso de ferramentas de Inteligência
Artificial pelos discentes, impactando diretamente a dinâmica pedagógica [Jensen et al.
2025]. A identificação desses padrões é relevante pois permite antecipar desafios e adaptar
metodologias de ensino antes que comportamentos de risco, como a dependência cogni-
tiva e a perda de habilidades críticas, se tornem irreversíveis [Marr 2023]. Tais tendências
foram extraídas a partir da análise estatística dos resultados obtidos na Seção 5, cruzando
dados de frequência de uso, tipos de ferramentas e autopercepção de competência.
Para a consolidação dessas tendências, foram utilizados os dados quantitativos
coletados via questionário (n = 26). Os critérios adotados para classificar um compor-
tamento como tendência basearam-se na recorrência (padrões observados na maioria da
amostra) e na intensidade das respostas relatadas. Houve um agrupamento dos dados em
categorias comportamentais para isolar fenômenos específicos de adoção tecnológica.
A primeira tendência identificada é a migração de preferência para o ecossis-
tema Gemini em detrimento do ChatGPT. As evidências nos dados mostram que 24 dos
26 alunos utilizam a ferramenta da Google (Figura 3). Este dado diverge da literatura ini-
cial, que frequentemente aponta o ChatGPT como a ferramenta hegemônica e sinônimo
de LLMs no mercado [Gupta et al. 2023; OpenAI 2025].
A segunda tendência é o “Hiato de Percepção de Competência”. Observa-se
que, embora cerca de 40% dos alunos reconheçam que o aprendizado se torna superficial
(Figura 4) corroborando o conceito de “compreensão superficial” descrito por Deli-
koura et al. (2025) os níveis de confiança para realizar tarefas sem auxílio permanecem
elevados (Figura 6).
A terceira tendência refere-se ao uso da IA predominantemente para depura-
ção (debugging), com 77% dos alunos utilizando a ferramenta para correção de erros
em vez da escrita lógica inicial (Figura 8). Este comportamento dialoga diretamente com
os achados de B. Xie et al. (2024), que identificam a depuração de códigos gerados por
IA como um ponto crítico onde os estudantes frequentemente falham em compreender a
lógica subjacente.
A análise interpretativa dessas tendências indica uma mudança na interação cog-
nitiva dos discentes da UFS. A predominância do uso para depuração sugere que a IA
está substituindo o processo de resiliência intelectual necessário para encontrar erros,
alinhando-se aos alertas sobre a redução do engajamento cognitivo e do ceticismo profis-
sional relatados por Lee et al. (2025). Além disso, o hiato de confiança aponta para uma
possível superestimação da competência técnica (Efeito Dunning-Kruger), onde a faci-
lidade de uso da ferramenta mascara lacunas de aprendizado profundo e cria uma falsa
sensação de domínio [Delikoura et al. 2025].
5.2. Validação e Ameaças à Validade
A validação dos resultados é necessária para assegurar que as percepções coletadas na
UFS possuem eco em cenários globais e não são fruto de viés amostral. Para este estudo,
a validação foi realizada por meio da comparação com trabalhos relacionados de alto
impacto, confrontando os dados locais com as pesquisas do MIT [Kosmyna et al. 2025]
e da Microsoft [Lee et al. 2025].
A convergência entre o “aprendizado superficial” admitido por parcela signifi-
cativa dos respondentes e a “dívida cognitiva” comprovada via eletroencefalograma por
Kosmyna et al. (2025) valida a premissa de que o uso intensivo de IA afeta a memória
de longo prazo e o planejamento lógico. Da mesma forma, a dependência observada na
etapa de depuração valida as preocupações levantadas por B. Xie et al. (2024) sobre a
dificuldade dos alunos em avaliarem criticamente o código quando a IA atua como inter-
mediária.
Apesar da consistência dos achados, o estudo apresenta certas ameaças à validade
que devem ser consideradas:
Validade Externa: O tamanho reduzido da amostra (n = 26) e o foco geográfico
em uma única instituição (UFS) limitam a generalização estatística dos resultados
para outros contextos nacionais, diferindo de estudos com amostras mais amplas
e diversificadas como o de Martín-Gómez e González Ruiz (2025).
Validade de Conclusão: Existe a possibilidade de viés de desejabilidade social,
onde os alunos podem ter subestimado a frequência de uso ou superestimado sua
confiança para não parecerem dependentes da tecnologia perante os pesquisado-
res, um fenômeno observado em estudos de auto-relato [Lee et al. 2025].
Validade de Construção: Os questionários baseiam-se na autopercepção (dados
declaratórios). A dissonância entre a sensação de aprendizado e a confiança téc-
nica sugere que métricas baseadas apenas na opinião do aluno podem não refletir
com precisão a competência real, conforme demonstrado pelas discrepâncias neu-
rais observadas por Kosmyna et al. (2025), sendo necessária, em trabalhos futuros,
a aplicação de testes práticos controlados.
6. Conclusão
O presente estudo teve como objetivo principal analisar a integração de ferramentas de
Inteligência Artificial Generativa nas disciplinas introdutórias de programação da Univer-
sidade Federal de Sergipe, buscando compreender como seu uso impacta a autonomia e o
desenvolvimento do raciocínio crítico dos discentes. A investigação tornou-se imperativa
diante da necessidade de equilibrar o potencial pedagógico dessas tecnologias com os ris-
cos de dependência cognitiva e aprendizado superficial identificados na literatura recente
[Jensen et al. 2025].
Os resultados obtidos revelam um cenário de adoção massiva e regular, onde
73% dos estudantes utilizam ferramentas de IA, com predominância notável do ecos-
sistema Gemini, divergindo das tendências globais focadas no ChatGPT [OpenAI 2025].
Identificou-se que o uso primordial dessas ferramentas (77%) ocorre na etapa de depu-
ração (debugging) e correção de sintaxe, e não na concepção lógica inicial. Além disso,
constatou-se uma dissonância cognitiva relevante: embora parcela significativa dos alunos
reconheça a superficialidade do aprendizado assistido, os níveis de confiança na própria
competência técnica permanecem elevados, sugerindo uma possível superestimação das
habilidades reais mascarada pela eficiência da ferramenta.
Como contribuição científica, este trabalho valida, no contexto local e específico
da Ciência da Computação, o conceito de “dívida cognitiva” e os desafios de depura-
ção apontados por estudos internacionais, demonstrando que a facilidade de gerar código
não se traduz necessariamente em compreensão dos fundamentos [Kosmyna et al. 2025;
B. Xie et al. 2024]. Em termos práticos, a pesquisa fornece subsídios para que o corpo
docente da UFS reavalie os métodos avaliativos, indicando que o foco do ensino deve
migrar da sintaxe facilmente resolvida pela IA para a defesa da lógica e a resolução
de problemas complexos em ambientes controlados.
É necessário, contudo, reconhecer as limitações deste estudo. A amostra reduzida
(n = 26) e restrita a uma única instituição impede a generalização estatística dos resulta-
dos para o cenário nacional. Ademais, a natureza declaratória dos dados (autopercepção)
pode conter vieses de desejabilidade social, onde a confiança relatada pelos alunos pode
não corresponder ao desempenho prático real [Lee et al. 2025].
Para trabalhos futuros, sugere-se a realização de experimentos práticos controla-
dos, onde o desempenho de codificação dos alunos seja mensurado objetivamente com
e sem o auxílio de IA, superando as limitações do auto-relato. Recomenda-se também
a expansão da pesquisa para outras instituições de ensino superior do Nordeste, visando
mapear se a preferência pelo Gemini e o comportamento de depuração assistida são ten-
dências regionais ou isoladas. Em suma, a integração da IA no ensino é irreversível, e o
desafio reside não na proibição, mas na formação de profissionais capazes de auditar, e
não apenas consumir, o código gerado por máquinas.
Referências
Abadi, M. et al. (2016). “TensorFlow: A system for large-scale machine learning”. Em:
12th USENIX Symposium on Operating Systems Design and Implementation (OSDI
16), pp. 265–283. URL: https://www.usenix.org/system/files/co
nference/osdi16/osdi16-abadi.pdf (ver p. 5).
Al Azri, K. Z., R. Tumati e S. S. Al Tarshi (2025). “Impact of Artificial Intelligence
on Student Learning in Oman”. Em: 2025 International Conference for Artificial
Intelligence, Applications, Innovation and Ethics (AI2E), pp. 1–5. DOI: 10.110
9/AI2E64943.2025.10983758 (ver p. 2).
Alatawi, H. S., A. M. Alhothali e K. M. Moria (2021). “Detecting White Supremacist
Hate Speech Using Domain Specific Word Embedding With Deep Learning and
BERT”. Em: IEEE Access 9, pp. 106363–106374. ISSN: 2169-3536. DOI: 10.11
09/ACCESS.2021.3100435. URL: https://ieeexplore.ieee.org
/document/9497095 (acesso em 13/01/2026) (ver p. 5).
Amani, M. et al. (2020). “Google Earth Engine Cloud Computing Platform for Remote
Sensing Big Data Applications: A Comprehensive Review”. Em: IEEE Journal of
Selected Topics in Applied Earth Observations and Remote Sensing 13, pp. 5326–
5350. ISSN: 2151-1535. DOI: 10 . 1109 / JSTARS . 2020 . 3021052. URL:
https : / / ieeexplore . ieee . org / document / 9184118 (acesso em
17/12/2025) (ver p. 4).
Anicker, F. (12 de jul. de 2025). “When Machines Take over: Professional Chess as a
Model Case for the Societal Impact of Superhuman AI”. en. Em: AI & Soc. ISSN:
1435-5655. DOI: 10.1007/s00146-025-02465-w. URL: https://doi
.org/10.1007/s00146-025-02465-w (acesso em 11/01/2026) (ver p. 3).
Brown, T. et al. (2020). “Language Models are Few-Shot Learners”. Em: Advances in
Neural Information Processing Systems 33, pp. 1877–1901. URL: https://pr
oceedings.neurips.cc /paper/2020/file/1457c0d6bfcb49674
18bfb8ac142f64a-Paper.pdf (ver pp. 5, 7).
Bui, K. G. (23 de nov. de 2025). Foundations of Artificial Intelligence Frameworks: No-
tion and Limits of AGI. DOI: 10.48550/arXiv.2511 .18517. arXiv: 2511
.18517 [cs]. URL: http://arxiv.org /abs/2511.18517 (acesso em
16/01/2026). Pré-publicado (ver p. 9).
Busia, P. et al. (fev. de 2025). “A Tiny Transformer for Low-Power Arrhythmia Classifi-
cation on Microcontrollers”. Em: IEEE Transactions on Biomedical Circuits and
Systems 19.1, pp. 142–152. ISSN: 1940-9990. DOI: 10.1109/TBCAS.2024.3
401858. URL: https://ieeexplore.ieee.org/ document/105318
12 (acesso em 19/01/2026) (ver p. 8).
ByteDance (19 de mar. de 2024). ByteDance/AnimateDiff-Lightning · Hugging Face. By-
teDance. URL: https://huggingface.co/ByteDance/AnimateDiff
-Lightning (acesso em 14/01/2026) (ver p. 5).
Chen, M. et al. (14 de jul. de 2021). Evaluating Large Language Models Trained on
Code. DOI: 10.48550/arXiv.2107.03374. arXiv: 2107.03374 [cs].
URL: http ://arxiv.org / abs / 2107.03374 (acesso em 11/01/2026).
Pré-publicado (ver pp. 3, 5).
Cooper, S. B. e J. van Leeuwen (2013). Alan Turing: His Work and Impact. Waltham, MA
: Kidlington, Oxford: Elsevier. 914 pp. ISBN: 978-0-12-386980-7 (ver p. 3).
Cornélio, A. (nov. de 2021). História da tecnologia: da pré-história ao Metaverso Use-
mobile. pt-BR. URL: https://usemobile.com.br/historia-da-tec
nologia/ (acesso em 20/11/2025) (ver p. 1).
Crevier, D. (1993). Ai: The Tumultuous History Of The Search For Artificial Intelligence.
New York, NY: Basic Books. 400 pp. ISBN: 978-0-465-02997-6 (ver p. 3).
Delikoura, I., Y. R. Fung e P. Hui (2025). From Superficial Outputs to Superficial Le-
arning: Risks of Large Language Models in Education. arXiv: 2509 . 21972
[cs.CY]. URL: https://arxiv.org/abs/2509.21972 (ver pp. 2, 10,
16, 18).
Descartes, R. (1 de mar. de 1993). Discourse on the Method of Rightly Conducting One’s
Reason and of Seeking Truth in the Sciences. Trad. por J. Veitch. URL: https
://www.gutenberg.org/ebooks/59 (acesso em 16/01/2026) (ver p. 9).
Devlin, J. et al. (24 de mai. de 2019). BERT: Pre-training of Deep Bidirectional Transfor-
mers for Language Understanding. DOI: 10.48550/arXiv.1810.04805.
arXiv: 1810.04805 [cs]. URL: http ://arxiv.org/abs/1810.0480
5 (acesso em 16/01/2026). Pré-publicado (ver p. 7).
Ding, Y. et al. (jun. de 2025). “EmT: A Novel Transformer for Generalized Cross-Subject
EEG Emotion Recognition”. Em: IEEE Transactions on Neural Networks and
Learning Systems 36.6, pp. 10381–10393. ISSN: 2162-2388. DOI: 10.1109/TN
NLS.2025.3552603. URL: https://ieeexplore.ieee.org/docum
ent/10960695 (acesso em 19/01/2026) (ver p. 8).
Dohmke, T. (14 de fev. de 2023). GitHub Copilot for Business Is Now Available. en-US.
The GitHub Blog. URL: https://github.blog/news-insights/pro
duct-news/github-copilot-for-business-is-now-availabl
e/ (acesso em 11/01/2026) (ver p. 3).
Drucker, P. F. et al. (1967). The Effective Executive. [1st ed.] New York: Harper & Row.
viii, 178 (ver p. 9).
Elnaggar, A. et al. (out. de 2022). “ProtTrans: Toward Understanding the Language of Life
Through Self-Supervised Learning”. Em: IEEE Transactions on Pattern Analysis
and Machine Intelligence 44.10, pp. 7112–7127. ISSN: 1939-3539. DOI: 10.110
9 /TPAMI.2021.3095381. URL: https://ieeexplore.ieee.org/d
ocument/9477085 (acesso em 17/12/2025) (ver p. 4).
Fang, X., Z. Zhu e M. D. Nardo (mar. de 2025). “Design of an Adaptive English Educa-
tion Management Information System Based on Artificial Intelligence and Deep
Learning”. Em: 2025 4th International Symposium on Computer Applications and
Information Technology (ISCAIT). 2025 4th International Symposium on Compu-
ter Applications and Information Technology (ISCAIT), pp. 391–394. DOI: 10.1
109/ISCAIT64916.2025.11010256. URL: https://ieeexplore.i
eee.org/document/11010256 (acesso em 16/01/2026) (ver p. 7).
Ferrag, M. A. et al. (2024). “Revolutionizing Cyber Threat Detection With Large Lan-
guage Models: A Privacy-Preserving BERT-Based Lightweight Model for IoT/IIoT
Devices”. Em: IEEE Access 12, pp. 23733–23750. ISSN: 2169-3536. DOI: 10.1
109/ACCESS.2024.3363469. URL: https://ieeexplore.ieee.or
g/document/10423646 (acesso em 16/01/2026) (ver p. 8).
Ferreira, F. G. D. C., A. H. Gandomi e R. T. N. Cardoso (2021). “Artificial Intelligence
Applied to Stock Market Trading: A Review”. Em: IEEE Access 9, pp. 30898–
30917. ISSN: 2169-3536. DOI: 10 . 1109 / ACCESS . 2021 . 3058133. URL:
https : / / ieeexplore . ieee . org / document / 9350582 (acesso em
13/01/2026) (ver pp. 5, 8).
Frankfurt, H. G. (2009). On Bullshit. Princeton, N.J.: Princeton University Press. 80 pp.
ISBN: 978-1-4008-2653-7. URL: http://www.SLQ.eblib.com.au/patr
on/FullRecord.aspx?p=457797 (acesso em 03/12/2024) (ver p. 9).
Free Software, Free Society (2015). Free Software, Free Society: Selected Essays of Ri-
chard M. Stallman. ed. Boston, MA: Free Software Foundation. 305 pp. ISBN:
978-0-9831592-5-4. URL: https://www.gnu.org/philosophy/essay
s-and-articles.html (acesso em 21/06/2025) (ver p. 9).
Fui-Hoon Nah, F. et al. (3 de jul. de 2023). “Generative AI and ChatGPT: Applications,
Challenges, and AI-human Collaboration”. Em: Journal of Information Techno-
logy Case and Application Research 25.3, pp. 277–304. ISSN: 1522-8053. DOI:
10.1080/15228053.2023.2233814. URL: https://doi.org/10.1
080/15228053.2023.2233814 (acesso em 13/01/2026) (ver p. 5).
Fuller, A. et al. (2020). “Digital Twin: Enabling Technologies, Challenges and Open Re-
search”. Em: IEEE Access 8, pp. 108952–108971. ISSN: 2169-3536. DOI: 10.11
09/ACCESS.2020.2998358. URL: https://ieeexplore.ieee.org
/document/9103025 (acesso em 17/12/2025) (ver p. 4).
Gallego, G. et al. (jan. de 2022). “Event-Based Vision: A Survey”. Em: IEEE Transacti-
ons on Pattern Analysis and Machine Intelligence 44.1, pp. 154–180. ISSN: 1939-
3539. DOI: 10.1109/TPAMI.2020.3008413. URL: https://ieeexplo
re.ieee.org/document/9138762 (acesso em 17/12/2025) (ver p. 4).
Gan, W. et al. (dez. de 2023). “Large Language Models in Education: Vision and Op-
portunities”. Em: 2023 IEEE International Conference on Big Data (BigData),
pp. 4776–4785. DOI: 10.1109/BigData59044.2023.10386291. URL:
https://ieeexplore.ieee.org/abstract/document/10386291
(acesso em 21/11/2025) (ver pp. 2, 4).
Goodfellow, I., Y. Bengio e A. Courville (2016). Deep Learning. Cambridge, MA: MIT
Press. URL: http://www.deeplearningbook.org (ver p. 6).
Guo, H. (set. de 2024). “JAVA Mobile Application Development Course Under the Fra-
mework of Industry-Education Integration: Practice of Deep Learning and Neu-
ral Network Integration”. Em: 2024 International Conference on Artificial Intelli-
gence, Deep Learning and Neural Networks (AIDLNN). 2024 International Confe-
rence on Artificial Intelligence, Deep Learning and Neural Networks (AIDLNN),
pp. 65–70. DOI: 10.1109/AIDLNN65358.2024.00018. URL: https://i
eeexplore . ieee .org/document/10873245 (acesso em 18/01/2026)
(ver p. 7).
Gupta, M. et al. (2023). “From ChatGPT to ThreatGPT: Impact of Generative AI in Cyber-
security and Privacy”. Em: IEEE Access 11, pp. 80218–80245. ISSN: 2169-3536.
DOI: 10.1109/ ACCESS.2023.3300381. URL: https://ieeexplor
e.ieee.org/document/10198233 (acesso em 15/01/2026) (ver pp. 7, 8,
18).
Hannun, A. Y. et al. (jan. de 2019). “Cardiologist-Level Arrhythmia Detection and Clas-
sification in Ambulatory Electrocardiograms Using a Deep Neural Network”. Em:
Nat Med 25.1, pp. 65–69. ISSN: 1546-170X. DOI: 10.1038/s41591-018-0
268-3. URL: https://www.nature.com/articles/s41591-018-0
268-3 (acesso em 13/01/2026) (ver p. 5).
Hashmi, E. et al. (2024). “Advancing Fake News Detection: Hybrid Deep Learning With
FastText and Explainable AI”. Em: IEEE Access 12, pp. 44462–44480. ISSN:
2169-3536. DOI: 10.1109/ACCESS.2024. 3381038. URL: https://iee
explore.ieee.org/document/10477989 (acesso em 13/01/2026) (ver
p. 5).
Heikkilä, M. (12 de jul. de 2022). Inside a Radical New Project to Democratize AI. MIT
Technology Review. URL: https://www.technologyreview.com/202
2/07/12/1055817/inside-a-radical-new-project-to-democ
ratize-ai/ (acesso em 14/01/2026) (ver p. 5).
Hochreiter, S. e J. Schmidhuber (1997). “Long short-term memory”. Em: Neural compu-
tation 9.8, pp. 1735–1780 (ver p. 6).
Hospedales, T. et al. (set. de 2022). “Meta-Learning in Neural Networks: A Survey”. Em:
IEEE Transactions on Pattern Analysis and Machine Intelligence 44.9, pp. 5149–
5169. ISSN: 1939-3539. DOI: 10 . 1109 / TPAMI . 2021 . 3079209. URL: h
ttps : / / ieeexplore . ieee . org / document / 9428530 (acesso em
14/01/2026) (ver p. 6).
Huang, J. e K. C.-C. Chang (26 de mai. de 2023). Towards Reasoning in Large Language
Models: A Survey. DOI: 10.48550/arXiv.2212.10403. arXiv: 2212.1
0403 [cs]. URL: http://arxiv.org/abs/2212. 10403 (acesso em
15/01/2026). Pré-publicado (ver p. 8).
Hussain, T. et al. (2025). “EFFResNet-ViT: A Fusion-Based Convolutional and Vision
Transformer Model for Explainable Medical Image Classification”. Em: IEEE Ac-
cess 13, pp. 54040–54068. ISSN: 2169-3536. DOI: 10.1109/ACCESS.2025
.3554184. URL: https://ieeexplore.ieee.org/document/1093
8132 (acesso em 19/01/2026) (ver p. 8).
Jensen, L. X. et al. (abr. de 2025). “Generative AI and higher education: a review of claims
from the first months of ChatGPT”. en. Em: Higher Education 89.4, pp. 1145–
1161. ISSN: 1573-174X. DOI: 10 . 1007 / s10734 - 024 - 01265 - 3. URL:
https : / / doi . org / 10 . 1007 / s10734 - 024 - 01265 - 3 (acesso em
21/11/2025) (ver pp. 2, 9, 14, 17, 19).
Jia, Y. (2024). “Analysis of the Impact of Artificial Intelligence on Electricity Consump-
tion”. Em: 2024 3rd International Conference on Artificial Intelligence, Internet
of Things and Cloud Computing Technology (AIoTC), pp. 57–60. DOI: 10.1109
/AIoTC63215.2024.10748289 (ver pp. 2, 3, 6).
Jiang, T. et al. (2021). “A Novel Stacking Approach for Accurate Detection of Fake
News”. Em: IEEE Access 9, pp. 22626–22639. ISSN: 2169-3536. DOI: 10 . 11
09/ACCESS.2021.3056079. URL: https://ieeexplore.ieee.org
/document/9343823 (acesso em 13/01/2026) (ver p. 5).
Karras, T., S. Laine e T. Aila (29 de mar. de 2019). A Style-Based Generator Architecture
for Generative Adversarial Networks. DOI: 10.48550/arXiv.1812.04948.
arXiv: 1812.04948 [cs]. URL: http://arxiv.org/abs/ 1812.0494
8 (acesso em 13/01/2026). Pré-publicado (ver p. 5).
Khamassi, M., M. Nahon e R. Chatila (12 de ago. de 2024). Strong and Weak Alignment
of Large Language Models with Human Values. DOI: 10.48550/arXiv.240
8.04655. arXiv: 2408.04655 [cs]. URL: http://arxiv.org/abs/2
408.04655 (acesso em 16/01/2026). Pré-publicado (ver p. 9).
Kong, W. et al. (11 de mar. de 2025). HunyuanVideo: A Systematic Framework For Large
Video Generative Models. DOI: 10.48550/arXiv.2412.03603. arXiv: 24
12.03603 [cs]. URL: http://arxiv.org/abs/2412.03603 (acesso
em 14/01/2026). Pré-publicado (ver p. 5).
Kosmyna, N. et al. (10 de jun. de 2025). Your Brain on ChatGPT: Accumulation of Cog-
nitive Debt When Using an AI Assistant for Essay Writing Task. DOI: 10.4855
0/arXiv.2506.08872. arXiv: 2506.08872 [cs]. URL: http://arxi
v .org/abs/2506.08872 (acesso em 16/11/2025). Pré-publicado (ver pp. 1,
9, 13, 15, 18, 19).
Kreuzberger, D., N. Kühl e S. Hirschl (2023). “Machine Learning Operations (MLOps):
Overview, Definition, and Architecture”. Em: IEEE Access 11, pp. 31866–31879.
ISSN: 2169-3536. DOI: 10 . 1109 / ACCESS . 2023 . 3262138. URL: htt
ps : / / ieeexplore . ieee . org / document / 10081336 (acesso em
17/12/2025) (ver p. 4).
LeCun, Y., Y. Bengio e G. Hinton (2015). “Deep learning”. Em: Nature 521.7553, pp. 436–
444 (ver p. 6).
Lee, H.-P. ( et al. (25 de abr. de 2025). “The Impact of Generative AI on Critical Thin-
king: Self-Reported Reductions in Cognitive Effort and Confidence Effects From
a Survey of Knowledge Workers”. Em: Proceedings of the 2025 CHI Conference
on Human Factors in Computing Systems. CHI ’25. New York, NY, USA: Asso-
ciation for Computing Machinery, pp. 1–22. ISBN: 979-8-4007-1394-1. DOI: 10
.1145/3706598.3713778. URL: https:// dl.acm.org/doi/10.11
45/3706598.3713778 (acesso em 16/11/2025) (ver pp. 1, 9, 13, 16–19).
Li, H. et al. (17 de nov. de 2025). Visual Room 2.0: Seeing Is Not Understanding for
MLLMs. DOI: 10 . 48550 / arXiv . 2511 . 12928. arXiv: 2511 . 12928
[cs]. URL: http://arxiv.org/abs/2511.12928 (acesso em 16/01/2026).
Pré-publicado (ver p. 9).
Lin, S. e X. Yang (19 de mar. de 2024). AnimateDiff-Lightning: Cross-Model Diffusion
Distillation. DOI: 10 . 48550 / arXiv . 2403 . 12706. arXiv: 2403 . 127
06 [cs]. URL: http : / / arxiv . org / abs / 2403 . 12706 (acesso em
14/01/2026). Pré-publicado (ver p. 5).
Louadi, M. E. (1 de dez. de 2025). Humanity in the Age of AI: Reassessing 2025’s
Existential-Risk Narratives. DOI: 10 .48550/arXiv. 2512.04119. arXiv:
2512 . 04119 [cs]. URL: http : / / arxiv . org / abs / 2512 . 04119
(acesso em 25/01/2026). Pré-publicado (ver p. 3).
Maciá-Lillo, A. et al. (set. de 2025). “Hybrid Architecture for AI-Based RTS Games”.
Em: IEEE Transactions on Games 17.3, pp. 686–699. ISSN: 2475-1510. DOI: 10
.1109/TG.2025.3533949. URL: https://ieeexplore.ieee.org
/document/10854898 (acesso em 11/01/2026) (ver p. 3).
Marr, B. (5 de jun. de 2023). Os 15 maiores riscos da inteligência artificial. Forbes Brasil.
URL: https : / / forbes . com . br / forbes - tech / 2023 / 06 / os - 1
5 - maiores - riscos - da - inteligencia - artificial/ (acesso em
16/11/2025) (ver pp. 1, 4, 14, 17).
Marr, B. (2025). Global AI Optimism Increases as Usage Grows. en. URL: https://p
ublicpolicy.google/article/global-ai -optimism-increase
s-as-usage-grows/ (acesso em 20/11/2025) (ver pp. 1, 2).
Martín-Gómez, S. e C. J. González Ruiz (2025). “AI in Higher Education: Initial Teacher
Training in the Critical and Didactic Use of Artificial Intelligence”. Em: IEEE
Revista Iberoamericana de Tecnologias del Aprendizaje 20, pp. 302–309. ISSN:
1932-8540. DOI: 10.1109/RITA.2025.3616509. URL: https://iee
explore.ieee.org/document/11186800 (acesso em 19/12/2025) (ver
pp. 3, 10, 18).
McCarthy, J. (1 de abr. de 1960). “Recursive Functions of Symbolic Expressions and
Their Computation by Machine, Part I”. Em: Commun. ACM 3.4, pp. 184–195.
ISSN: 0001-0782. DOI: 10.1145/367177.367199. URL: https://dl.ac
m.org/doi/10.1145/367177.367199 (acesso em 13/12/2025) (ver p. 3).
McCarthy, J. et al. (31 de ago. de 1956). “A Proposal for the Dartmouth Summer Research
Project on Artificial Intelligence”. en. Em: URL: https://ebiquity.umbc
.edu/paper/ html/id/1199 /A- Proposal - for- the- Dartmout
h- Summer- Research- Project- on- Artificial- Intelligence
(acesso em 11/01/2026) (ver p. 3).
McCulloch, W. S. e W. Pitts (1943). “A logical calculus of the ideas immanent in nervous
activity”. Em: Bulletin of mathematical biophysics 5.4, pp. 115–133 (ver p. 5).
McKinney, S. M. et al. (jan. de 2020). “International Evaluation of an AI System for
Breast Cancer Screening”. Em: Nature 577.7788, pp. 89–94. ISSN: 1476-4687.
DOI: 10.1038/s41586-019-1799-6. URL: https://www.nature.c
om/articles/s41586-019-1799-6 (acesso em 13/01/2026) (ver p. 5).
Melo, L. B. e T. J. M. Moura (28 de dez. de 2023). “O uso do ChatGPT no ensino de
programação”. pt. Em: Computação Brasil 51, pp. 43–47. ISSN: 2965-9728. DOI:
10.5753/compbr.2023.51.3994. URL: https://journals-sol.s
bc.org.br/index.php/comp-br/article/view/3994 (acesso em
19/12/2025) (ver pp. 3, 10).
Mishev, K. et al. (2020). “Evaluation of Sentiment Analysis in Finance: From Lexicons to
Transformers”. Em: IEEE Access 8, pp. 131662–131682. ISSN: 2169-3536. DOI:
10.1109/ACCESS.2020.3009626. URL: https://ieeexplore.iee
e.org/document/9142175 (acesso em 13/01/2026) (ver p. 5).
Mitchell, T. M. (1997). Machine Learning. New York: McGraw-Hill (ver p. 4).
Mridha, M. F. et al. (2021). “A Comprehensive Review on Fake News Detection With
Deep Learning”. Em: IEEE Access 9, pp. 156151–156170. ISSN: 2169-3536. DOI:
10.1109/ACCESS.2021.3129329. URL: https://ieeexplore.iee
e.org/document/9620068 (acesso em 13/01/2026) (ver p. 5).
Mullah, N. S. e W. M. N. W. Zainon (2021). “Advances in Machine Learning Algo-
rithms for Hate Speech Detection in Social Media: A Review”. Em: IEEE Access
9, pp. 88364–88376. ISSN: 2169-3536. DOI: 10.1109/ACCESS.2021.308
9515. URL: https://ieeexplore.ieee.org/document/9455353
(acesso em 13/01/2026) (ver p. 5).
Murshed, B. A. H. et al. (2022). “DEA-RNN: A Hybrid Deep Learning Approach for
Cyberbullying Detection in Twitter Social Media Platform”. Em: IEEE Access 10,
pp. 25857–25871. ISSN: 2169-3536. DOI: 10 .1109/ACCESS . 2022.3153
675. URL: https : / / ieeexplore . ieee . org / document / 9718597
(acesso em 13/01/2026) (ver p. 5).
Ni, S., J. Li e H.-Y. Kao (2021). “MVAN: Multi-View Attention Networks for Fake
News Detection on Social Media”. Em: IEEE Access 9, pp. 106907–106917. ISSN:
2169-3536. DOI: 10.1109/ACCESS.2021.3100245. URL: https://ie
eexplore.ieee.org/document/9497048 (acesso em 13/01/2026) (ver
p. 5).
OpenAI (2025). New funding to build towards AGI. en-US. URL: https://openai
.com/index/march- funding- updates/ (acesso em 21/11/2025) (ver
pp. 2, 14, 18, 19).
Ouyang, L. et al. (2022). “Training language models to follow instructions with human fe-
edback”. Em: Advances in Neural Information Processing Systems 35, pp. 27730–
27744. URL: https: //proceedings.neurips.cc/paper_files/pa
per/2022/file/b1efde53be364a73914f58805a0017cc-Paper.p
df (ver pp. 7, 9).
Paszke, A. et al. (2019). “PyTorch: An Imperative Style, High-Performance Deep Lear-
ning Library”. Em: Advances in Neural Information Processing Systems. Vol. 32.
Curran Associates, Inc. URL: https://papers.nips.cc/paper_files
/paper/2019/hash/bdbca288fee7f92f2bfa9f7012727740-Abst
ract.html (acesso em 14/01/2026) (ver p. 5).
Peebles, W. e S. Xie (2 de mar. de 2023). Scalable Diffusion Models with Transformers.
NOTA: Esse é o artigo introdutório para o Sora, a ferramenta de geração de ví-
deo da OpenAI. DOI: 10.48550/arXiv.2212.09748. arXiv: 2212.09
748 [cs]. URL: http : / / arxiv . org / abs / 2212 . 09748 (acesso em
13/01/2026). Pré-publicado (ver pp. 5, 7).
Peters, M. E. et al. (22 de mar. de 2018). Deep Contextualized Word Representations. DOI:
10.48550/arXiv.1802.05365. arXiv: 1802.05365 [cs]. URL: http
://arxiv.org/abs/1802.05365 (acesso em 18/01/2026). Pré-publicado
(ver p. 7).
Qiu, J. et al. (dez. de 2023). “Large AI Models in Health Informatics: Applications, Chal-
lenges, and the Future”. Em: IEEE Journal of Biomedical and Health Informatics
27.12, pp. 6074–6087. ISSN: 2168-2208. DOI: 10.1109/JBHI.2023.3316
750. URL: https://ieeexplore.ieee.org/document/10261199
(acesso em 16/01/2026) (ver p. 8).
Radford, A. et al. (2018). Improving Language Understanding by Generative Pre-Training.
OpenAI. URL: https://cdn.openai.com/research-covers/lang
uage- unsupervised/language_understanding_paper.pdf (ver
p. 7).
Raffel, C. et al. (23 de out. de 2019). Exploring the Limits of Transfer Learning with a
Unified Text-to-Text Transformer. arXiv.org. URL: https://arxiv.org/ab
s/1910.10683v4 (acesso em 04/12/2025) (ver pp. 2, 7).
Raiaan, M. A. K. et al. (2024). “A Review on Large Language Models: Architectures,
Applications, Taxonomies, Open Issues and Challenges”. Em: IEEE Access 12,
pp. 26839–26874. ISSN: 2169-3536. DOI: 10 .1109/ACCESS . 2024.3365
742. URL: https://ieeexplore.ieee.org/document/10433480
(acesso em 11/01/2026) (ver pp. 7, 8).
Ramesh, A. et al. (26 de fev. de 2021). Zero-Shot Text-to-Image Generation. DOI: 10.4
8550/arXiv.2102.12092. arXiv: 2102.12092 [cs]. URL: http://a
rxiv.org/abs/2102.12092 (acesso em 13/01/2026). Pré-publicado (ver
pp. 5, 7).
Rombach, R. et al. (13 de abr. de 2022). High-Resolution Image Synthesis with Latent
Diffusion Models. DOI: 10.48550/arXiv.2112.10752. arXiv: 2112.1
0752 [cs]. URL: http://arxiv.org/abs/2112. 10752 (acesso em
14/01/2026). Pré-publicado (ver p. 5).
Rumelhart, D. E., G. E. Hinton e R. J. Williams (out. de 1986). “Learning Representations
by Back-Propagating Errors”. Em: Nature 323.6088, pp. 533–536. ISSN: 1476-
4687. DOI: 10.1038/323533a0. URL: https://www.nature.com/art
icles/323533a0 (acesso em 04/12/2025) (ver p. 5).
Samek, W. et al. (mar. de 2021). “Explaining Deep Neural Networks and Beyond: A Re-
view of Methods and Applications”. Em: Proceedings of the IEEE 109.3, pp. 247–
278. ISSN: 1558-2256. DOI: 10 . 1109 / JPROC . 2021 . 3060483. URL: h
ttps : / / ieeexplore . ieee . org / document / 9369420 (acesso em
14/01/2026) (ver p. 5).
Schwitzgebel, E. (3 de jan. de 2026). AI and Consciousness. DOI: 10.48550/arXiv
.2510.09858. arXiv: 2510.09858 [cs]. URL: http://arxiv.org/a
bs/2510.09858 (acesso em 16/01/2026). Pré-publicado (ver p. 9).
Searle, J. R. (set. de 1980). “Minds, Brains, and Programs”. Em: Behav Brain Sci 3.3,
pp. 417–424. ISSN: 0140-525X, 1469-1825. DOI: 10.1017/S0140525X000
05756. URL: https://www.cambridge.org/core/product/iden
tifier/ S0140525X00005756/ type/journal_article (acesso em
12/11/2024) (ver p. 9).
Shafique, K. et al. (2020). “Internet of Things (IoT) for Next-Generation Smart Systems:
A Review of Current Challenges, Future Trends and Prospects for Emerging 5G-
IoT Scenarios”. Em: IEEE Access 8, pp. 23022–23040. ISSN: 2169-3536. DOI:
10.1109/ACCESS.2020.2970118. URL: https://ieeexplore.iee
e.org/document/8972389 (acesso em 17/12/2025) (ver p. 4).
Sharifi, A. e M. M. Safari (2025). “Enhancing the Spatial Resolution of Sentinel-2 Images
Through Super-Resolution Using Transformer-Based Deep-Learning Models”. Em:
IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sen-
sing 18, pp. 4805–4820. ISSN: 2151-1535. DOI: 10.1109/JSTARS.2025.35
26260. URL: https://ieeexplore.ieee.org/document/1082970
8 (acesso em 18/01/2026) (ver pp. 7, 8).
Sharma, A. et al. (2021). “Machine Learning Applications for Precision Agriculture: A
Comprehensive Review”. Em: IEEE Access 9, pp. 4843–4873. ISSN: 2169-3536.
DOI: 10.1109/ACCESS.2020.3048415. URL: https://ieeexplore
.ieee.org/document/9311735 (acesso em 17/12/2025) (ver p. 4).
Shaw, M. (mai. de 2003). “Writing Good Software Engineering Research Papers”. Em:
25th International Conference on Software Engineering, 2003. Proceedings. 25th
International Conference on Software Engineering, 2003. Pp. 726–736. DOI: 10
.1109/ICSE.2003.1201262. URL: https://ieeexplore.ieee.or
g/document/1201262 (acesso em 26/01/2026) (ver p. 11).
Silver, D. et al. (7 de dez. de 2018). “A General Reinforcement Learning Algorithm That
Masters Chess, Shogi, and Go through Self-Play”. en. Em: Science 362.6419,
pp. 1140–1144. ISSN: 0036-8075, 1095-9203. DOI: 10.1126/science.aa
r6404. URL: https://www.science.org/doi/10.1126/science
.aar6404 (acesso em 11/01/2026) (ver pp. 3, 5).
Somani, S. et al. (1 de ago. de 2021). “Deep Learning and the Electrocardiogram: Review
of the Current State-of-the-Art”. Em: Europace 23.8, pp. 1179–1191. ISSN: 1099-
5129. DOI: 10.1093/europace/euaa377. URL: https://doi.org/10
.1093/europace/euaa377 (acesso em 13/01/2026) (ver p. 5).
Stallman, R. M. (1983). The GNU Manifesto. English. The GNU Operating System e the
Free Software Movement. URL: https://www.gnu.org/gnu/manifest
o.html (acesso em 13/12/2025) (ver p. 3).
Stallman, R. M. et al. (2025). Using the GNU Compiler Collection (GCC). Free Software
Foundation. URL: https://gcc.gnu.org/onlinedocs/ (ver p. 3).
Stallman, R. M. e G. J. Sussman (1 de out. de 1977). “Forward Reasoning and Dependency-
Directed Backtracking in a System for Computer-Aided Circuit Analysis”. Em:
Artificial Intelligence 9.2, pp. 135–196. ISSN: 0004-3702. DOI: 10.1016/000
4-3702(77)90029-7. URL: https://www.sciencedirect.com/sc
ience/article/pii/0004370277900297 (acesso em 11/01/2026) (ver
p. 3).
Strubell, E., A. Ganesh e A. McCallum (2019). “Energy and Policy Considerations for
Deep Learning in NLP”. Em: Proceedings of the 57th Annual Meeting of the As-
sociation for Computational Linguistics, pp. 3645–3650 (ver p. 6).
Tencent (25 de dez. de 2025). Tencent/HunyuanVideo · Hugging Face. Tencent. URL:
https : / / huggingface . co / tencent / HunyuanVideo (acesso em
14/01/2026) (ver p. 5).
Tjoa, E. e C. Guan (nov. de 2021). “A Survey on Explainable Artificial Intelligence (XAI):
Toward Medical XAI”. Em: IEEE Transactions on Neural Networks and Learning
Systems 32.11, pp. 4793–4813. ISSN: 2162-2388. DOI: 10.1109/TNNLS.202
0.3027314. URL: https://ieeexplore.ieee.org/document/923
3366 (acesso em 17/12/2025) (ver pp. 4, 6).
Touvron, H. et al. (27 de fev. de 2023). LLaMA: Open and Efficient Foundation Language
Models. DOI: 10.48550/arXiv.2302.13971. arXiv: 2302.13971 [cs].
URL: http://arxiv . org / abs /2302.13971 (acesso em 14/01/2026).
Pré-publicado (ver p. 5).
Trevisan, A. et al. (22 de nov. de 2024). Measuring Bullshit in the Language Games
Played by ChatGPT. DOI: 10 . 48550 / arXiv . 2411 . 15129. arXiv: 241
1 . 15129. URL: http : / / arxiv . org / abs / 2411 . 15129 (acesso em
26/11/2024). Pré-publicado (ver p. 9).
Turing, A. M. (1937). “On Computable Numbers, with an Application to the Entschei-
dungsproblem”. Em: Proceedings of the London Mathematical Society s2-42.1,
pp. 230–265. ISSN: 1460-244X. DOI: 10.1112/plms/s2-42.1.230. URL:
https://onlinelibrary.wiley.com/doi/abs/10.1112/plms/s
2-42.1.230 (acesso em 13/12/2025) (ver p. 3).
Turing, A. M. (1950). “Computing Machinery and Intelligence”. Em: Mind 59.236, pp. 433–
460 (ver pp. 3, 8).
UNESCO (2023). Guidance for generative AI in education and research. United Nations
Educational, Scientific e Cultural Organization. URL: https://unesdoc.u
nesco.org/ark:/48223/ pf0000386693 (acesso em 21/11/2025) (ver
p. 4).
USP, J. (jun. de 2023). O que é o efeito Dunning-Kruger? pt-BR. URL: https://jor
nal .usp.br/radio-usp/o-que-e-o -efeito-dunning-kruger/
(acesso em 20/01/2026) (ver p. 15).
Vaswani, A. et al. (2017). “Attention is All You Need”. Em: Advances in Neural Informa-
tion Processing Systems. Vol. 30. Curran Associates, Inc. URL: https://proc
eedings.neurips.cc/paper_files/paper/2017/file/3f5ee24
3547dee91fbd053c1c4a845aa-Paper.pdf (ver pp. 5, 7).
Von Rueden, L. et al. (jan. de 2023). “Informed Machine Learning A Taxonomy and
Survey of Integrating Prior Knowledge into Learning Systems”. Em: IEEE Tran-
sactions on Knowledge and Data Engineering 35.1, pp. 614–633. ISSN: 1558-
2191. DOI: 10.1109/TKDE.2021.3079836. URL: https://ieeexplor
e.ieee.org/document/9429985 (acesso em 17/12/2025) (ver pp. 4, 5).
Wazlawick, R. S. (24 de ago. de 2023). Metodologia de Pesquisa para Ciência da Com-
putação. Rio de Janeiro, RJ: GEN LTC. 152 pp. ISBN: 978-85-9515-109-3 (ver
p. 11).
Woodbridge, D. M.-k. et al. (17 de dez. de 2025). Topic Discovery and Classification for
Responsible Generative AI Adaptation in Higher Education. DOI: 10.48550/a
rXiv.2512.16036. arXiv: 2512 .16036 [cs]. URL: http://arxiv.o
rg/abs/2512.16036 (acesso em 19/12/2025). Pré-publicado (ver pp. 3, 10,
11).
Xie, B., Y. Zhou e L. Porter (2024). “Integrating Generative AI into Programming Educa-
tion: Student Perceptions and the Challenge of Correcting AI Errors”. Em: ACM
Transactions on Computing Education 24.3, pp. 1–28. DOI: 10.1145/364367
4. URL: https://link.springer.com/article/10.1007/s40593
-025-00496-4 (acesso em 19/12/2025) (ver pp. 3, 10, 11, 18, 19).
Yang, Y.-Q. et al. (fev. de 2025). “Swin3D: A Pretrained Transformer Backbone for 3D
Indoor Scene Understanding”. Em: Computational Visual Media 11.1, pp. 83–101.
ISSN: 2096-0662. DOI: 10.26599/CVM.2025.9450383. URL: https://i
eeexplore . ieee .org/document/10901941 (acesso em 19/01/2026)
(ver p. 8).
Yang, Y. et al. (jul. de 2022). “A Multimodal AI System for Out-of-Distribution Genera-
lization of Seizure Identification”. Em: IEEE Journal of Biomedical and Health
Informatics 26.7, pp. 3529–3538. ISSN: 2168-2208. DOI: 10.1109/JBHI.202
2.3157877. URL: https://ieeexplore.ieee.org/document/973
2211 (acesso em 13/01/2026) (ver p. 5).
Yenduri, G. et al. (2025). “Artificial General Intelligence: Advancements, Challenges, and
Future Directions in AGI Research”. Em: IEEE Access 13, pp. 134325–134356.
ISSN: 2169-3536. DOI: 10 . 1109 / ACCESS . 2025 . 3592708. URL: htt
ps : / / ieeexplore . ieee . org / document / 11096544 (acesso em
11/01/2026) (ver pp. 3, 4).
Yurtsever, E. et al. (2020). “A Survey of Autonomous Driving: Common Practices and
Emerging Technologies”. Em: IEEE Access 8, pp. 58443–58469. ISSN: 2169-
3536. DOI: 10 . 1109 / ACCESS . 2020 . 2983149. URL: https : / / ieee
xplore . ieee . org / document / 9046805 (acesso em 17/12/2025) (ver
p. 4).
Zhang, Y., C. Zou et al. (30 de mai. de 2025). Are MLMs Trapped in the Visual Room?
DOI: 10.48550/arXiv.2505.23272. arXiv: 2505.23272 [cs]. URL:
http : / / arxiv . org / abs / 2505 . 23272 (acesso em 16/01/2026). Pré-
publicado (ver p. 9).
Zhang, Y., F. Xiong et al. (2020). “The Impact of Artificial Intelligence and Blockchain
on the Accounting Profession”. Em: IEEE Access 8, pp. 110461–110477. ISSN:
2169-3536. DOI: 10.1109/ACCESS.2020.3000505. URL: https://ie
eexplore.ieee.org/document/9110603 (acesso em 13/01/2026) (ver
p. 5).
Zhao, W. X. et al. (2023). “A Survey of Large Language Models”. Em: arXiv preprint
arXiv:2303.18223. URL: https:/ /arxiv. org/abs /2303.18223 (ver
p. 8).