Professor universitário cria armadilha em texto e descobre que 39% dos alunos usaram IA como o ChatGPT em redações. Caso levanta debate ético no ensino.
Na primavera de 2023, um professor de História em uma universidade dos Estados Unidos percebeu algo fora do lugar. O número de redações com um “estilo bom demais para ser verdade” crescia em ritmo alarmante. Mas diferente de plágios explícitos de outros tempos — facilmente detectados por softwares antiplágio que comparavam trechos com a Wikipédia —, os textos agora vinham “originais demais”, com fluidez impecável, linguagem polida e, em alguns casos, ideias que não faziam o menor sentido dentro do contexto.
A suspeita não era nova: inteligência artificial. Mas como provar?
Sem dispor de uma ferramenta técnica capaz de detectar o uso de IA, o professor criou seu próprio método. Inseriu no enunciado do trabalho instruções ocultas — trechos de texto invisíveis a olho nu, mas que a IA, ao ler o comando copiado e colado, interpretaria. Entre essas instruções parasitas, uma se destacava por ser uma armadilha: pedir ao estudante que aplicasse uma “leitura marxista” a uma obra que não dialogava com esse referencial teórico.
O resultado foi surpreendente.
Das 122 redações entregues, 33 mencionavam com entusiasmo uma abordagem marxista — sem nenhuma ligação com o conteúdo do livro Gabriel’s Rebellion, que trata de um levante de pessoas escravizadas em 1800. Ao serem confrontados, muitos alunos sequer sabiam explicar o que era marxismo, ou por que haviam usado esse enquadramento em seus textos. A IA os havia traído.
Um apelo à honestidade do professor fez com que outros 14 estudantes confessassem o uso de geradores de texto como o ChatGPT. Ao todo, quase 4 em cada 10 trabalhos usaram algum tipo de automação.
Entre o engano e a ingenuidade: estamos ensinando o quê?
A situação revela uma zona cinzenta perigosa. Muitos alunos alegaram desconhecer que o uso da IA fosse uma forma de trapaça. Para eles, recorrer ao ChatGPT ou ao Grammarly seria o equivalente moderno de pedir ajuda para “arrumar o texto”. Afinal, essas ferramentas estão por toda parte, e o limite entre assistência e substituição nunca foi claramente definido por boa parte das instituições.
A American Historical Association agora recomenda um caminho mais construtivo: ensinar os alunos a ler criticamente os textos produzidos por máquinas. A ideia é interessante, mas o professor que conduziu o experimento levanta uma questão essencial: como esperar que alguém critique um texto sem dominar o básico da disciplina?
Um novo ensaio, outra armadilha
Em vez de aplicar punições formais, o docente optou por outro experimento pedagógico. Ofereceu aos alunos a leitura obrigatória de um ensaio filosófico sobre os riscos da automação. Mas o texto vinha com uma nova armadilha invisível.
Dos 47 estudantes inicialmente envolvidos, 36 entregaram a nova redação. Desta vez, apenas um usou IA. Vários textos apresentavam reflexões genuínas, e alguns estudantes revelaram sentir que “não escrevem bem o suficiente sem IA” — um reconhecimento comovente de uma geração que cresceu sob a cultura do desempenho e vê nas máquinas não só uma muleta, mas uma proteção contra o fracasso acadêmico.
A lição: não é só sobre detectar trapaça
A história revela muito mais do que um truque inteligente para flagrar colas digitais. Ela expõe o quanto o ensino superior ainda está despreparado para lidar com os dilemas éticos e pedagógicos trazidos pela IA. Sem normas claras, professores tentam fazer justiça artesanalmente, enquanto estudantes confundem auxílio com fraude — e acabam dependendo de uma tecnologia que também os expõe.
Mais do que julgar, talvez seja hora de reconstruir. De ensinar a escrever — e a confiar na própria escrita — num mundo onde o correto, o polido e o “marxista” demais podem ser só mais um sinal de que ninguém leu nada.
Entre no grupo do Blog do Dina e receba tudo antes de sair no site.

