Pular para o conteúdo

Professores revelam técnica secreta para detectar alunos utilizando ChatGPT

Banner Aleatório

Desde a primavera de 2023, um professor de História de uma universidade dos Estados Unidos começou a notar algo estranho: redações cada vez mais bem escritas, organizadas demais e com um tom genérico que parecia… artificial. Ferramentas clássicas de antiplágio até pegavam cópias da Wikipédia, mas se mostravam praticamente inúteis contra textos gerados por IA ou “polidos” por corretores inteligentes como o Grammarly.

Banner Aleatório

O truque invisível que engana a IA

Professores usam truque invisível para flagrar alunos usando ChatGPT
© Pexels

Sem confiar nos detectores automáticos, o professor decidiu partir para uma solução artesanal — e engenhosa. Ele passou a inserir instruções invisíveis no enunciado dos trabalhos. Para o olho humano, nada aparecia. Mas, para modelos como o ChatGPT, aquelas linhas estavam lá, claras como o dia.

Essas mensagens escondidas traziam comandos estranhos, como pedir que o texto adotasse uma “leitura marxista” da obra analisada — algo completamente fora de contexto. A ideia era simples: se o estudante colasse o enunciado inteiro no ChatGPT, a IA obedeceria à instrução parasita e entregaria o próprio usuário.

O resultado foi mais chocante do que o esperado

O teste foi aplicado em um trabalho sobre Gabriel’s Rebellion, livro que retrata uma tentativa de levante de pessoas escravizadas em 1800. De 122 redações entregues, 33 mencionavam explicitamente a tal abordagem marxista — exatamente o gatilho escondido no texto.

Depois de um apelo coletivo à honestidade, outros 14 alunos admitiram ter usado IA. No total, quase 39% dos trabalhos estavam envolvidos. Alguns estudantes contestaram, alegando perseguição por terem um “estilo bom demais”. Mas nenhum conseguiu explicar o que era marxismo ou por que aquela abordagem aparecia no texto.

Segundo o professor, em alguns casos o próprio ChatGPT chegou a perguntar se o aluno queria mesmo incluir aquela análise fora de contexto. Muitos confirmaram “porque soava acadêmico”.

ChatGPT, trapaça e a zona cinzenta no ensino

O caso escancarou uma discussão maior: usar ChatGPT é sempre trapaça? A American Historical Association, por exemplo, defende que universidades ensinem os alunos a analisar criticamente textos gerados por IA, em vez de tentar proibir seu uso.

O problema, como aponta o professor, é outro. Como avaliar um texto produzido por IA se o estudante ainda não domina os conceitos básicos da disciplina? Sem regras claras e uniformes, cada instituição cria suas próprias normas, muitas vezes contraditórias. Resultado: alunos e professores seguem navegando no escuro.

A punição não foi castigo — foi outra armadilha

Em vez de aplicar sanções, o professor escolheu uma abordagem pedagógica. Ele pediu que os alunos lessem um ensaio crítico sobre inteligência artificial, escrito por um filósofo. Só que o texto também continha um novo “cavalo de Troia”.

Dos 47 alunos inicialmente envolvidos, 36 entregaram o novo trabalho. Apenas um voltou a usar automação. Cerca de uma dúzia desistiu do curso ao longo do processo. Muitos textos mostraram reflexão genuína e revelaram algo ainda mais preocupante: o medo de “não escrever bem o suficiente sem IA”.

No fim, o experimento não só expôs o uso do ChatGPT, como também levantou um alerta maior. A tecnologia não está apenas mudando a forma de trapacear — está escancarando inseguranças profundas sobre aprendizado, escrita e avaliação acadêmica.

[Fonte: Terra]

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *