Em uma sala de aula de uma universidade em Moscou, uma estudante do quinto ano insere no chat um pedido para analisar um caso de marketing apenas meia hora antes do prazo final. A rede neural gera um texto estruturado com exemplos e referências. A jovem faz os ajustes na redação e envia o trabalho.
Um estudo publicado na revista Frontiers in Education analisou justamente esse tipo de prática. Os autores ouviram mais de mil estudantes de diversos países para entender como eles utilizam modelos generativos no cotidiano acadêmico. O trabalho descreve não tendências abstratas, mas cenários concretos: desde a preparação para seminários até a escrita de trabalhos acadêmicos.
O mecanismo funciona da seguinte forma. O estudante formula a tarefa, recebe um rascunho e, em seguida, compara-o com suas próprias notas e materiais de aula. O passo fundamental não é a cópia, mas a edição e a verificação de fatos. Esse ciclo reduz a carga sobre a memória de trabalho e permite focar rapidamente na análise em vez da busca por informações. A analogia é simples: a rede neural atua como um assistente que posiciona os móveis em uma sala, enquanto o estudante decide onde deixar os espaços vazios.
De acordo com os dados da pesquisa, cerca de 65% dos entrevistados já utilizaram a IA para tarefas acadêmicas pelo menos uma vez. Os efeitos positivos manifestam-se no aumento da agilidade e em uma melhor compreensão de temas complexos. No entanto, os autores apontam limitações: a amostra consistiu majoritariamente de alunos das áreas técnica e econômica, e os dados foram coletados ao longo de apenas um semestre. Faltam observações de longo prazo sobre como o uso frequente desses modelos afeta a profundidade do pensamento crítico.
Aqui reside um problema mais amplo. Quando a ferramenta se torna mais acessível que a orientação de um professor, surge uma desigualdade entre quem domina a arte de formular comandos e quem usa a IA apenas para obter respostas prontas. O sistema de ensino superior, fundamentado na avaliação do trabalho individual, começa a perder as referências sobre o que deve ser avaliado: o resultado final ou o processo de sua criação.
A questão agora não é se devemos autorizar as redes neurais, mas como reformular as tarefas para que exijam aquilo que a IA ainda não consegue substituir: o posicionamento pessoal e a responsabilidade pelas escolhas argumentativas.



