Desde que o ChatGPT surgiu há quase três anos, o impacto das tecnologias de inteligência artificial (IA) na aprendizagem tem sido amplamente debatido. São ferramentas úteis para a educação personalizada ou serão portas de entrada para a desonestidade académica?
Mais importante ainda: tem havido a preocupação de que o uso da IA leve a um “emburrecimento” generalizado, ou seja, ao declínio da capacidade de ter pensamento crítico. Se os estudantes utilizarem ferramentas de IA em idades precoces, argumenta-se, podem não desenvolver capacidades básicas para o pensamento crítico e para a resolução de problemas.
Será que isto é realmente assim? De acordo com um estudo recente realizado por cientistas do MIT, parece que sim. Os investigadores afirmam que utilizar o ChatGPT para ajudar a escrever ensaios ou relatórios pode levar a uma “dívida cognitiva” e a uma “provável diminuição das capacidades de aprendizagem”.
Então, o que é se descobriu no estudo?
A diferença entre usar IA ou apenas o cérebro
Ao longo de quatro meses, a equipa do MIT pediu a 54 adultos que escrevessem uma série de três ensaios, e poderiam fazê-lo de três formas: usando IA (ChatGPT), um motor de busca ou apenas o seu próprio cérebro (grupo “apenas cérebro”). A equipa mediu o envolvimento cognitivo examinando a actividade eléctrica no cérebro e fazendo uma análise linguística dos ensaios.
O envolvimento cognitivo daqueles que utilizaram inteligência artificial foi significativamente menor do que nos outros dois grupos. Este grupo também teve mais dificuldade em lembrar-se de citações dos seus próprios ensaios e tinha um menor sentimento de propriedade sobre os seus documentos.
Curiosamente, os participantes trocaram de papéis para um quarto e último ensaio (o grupo que utilizou apenas o cérebro utilizou IA e vice-versa). O grupo IA-para-cérebro teve um desempenho pior e um envolvimento apenas ligeiramente melhor do que o outro grupo durante a sua primeira sessão, e muito abaixo do envolvimento do grupo “apenas cérebro” na sua terceira sessão.
Os autores afirmam que isto demonstra como o uso prolongado da IA levou os participantes a acumular uma “dívida cognitiva”. Quando finalmente tiveram a oportunidade de usar os seus cérebros, não conseguiram replicar o envolvimento ou ter um desempenho tão bom quanto os outros dois grupos.
Cautelosos, os autores observam que apenas 18 participantes (seis por cada condição) completaram a quarta e última sessão. Portanto, as conclusões são preliminares e requerem mais testes.
Isto quer dizer que a IA nos torna mais estúpidos?
Estes resultados não significam necessariamente que os alunos que usaram inteligência artificial acumularam “dívida cognitiva”. Na nossa opinião, as conclusões devem-se à forma como foi desenhado o estudo.
A mudança na conectividade neural do grupo que utilizou apenas o cérebro nas três primeiras sessões resultou provavelmente de se tornarem mais familiarizados com a tarefa, um fenómeno conhecido como efeito de familiarização. À medida que os participantes do estudo repetem a tarefa, ficam mais familiarizados e eficientes, e a sua estratégia cognitiva adapta-se em conformidade.
Quando o grupo da IA finalmente teve oportunidade de “usar o cérebro”, estava a realizar a tarefa apenas uma vez. Como resultado, os seus elementos não conseguiram igualar a experiência do outro grupo. E alcançaram um envolvimento apenas ligeiramente melhor do que o grupo “só cérebro” durante a primeira sessão.
Para justificar totalmente as conclusões dos investigadores, os participantes da IA-para-cérebro também precisariam de completar três sessões de escrita sem inteligência artificial.
Da mesma forma, o facto de o grupo cérebro-para-IA ter usado o ChatGPT de forma mais produtiva e estratégica deve-se provavelmente à natureza da quarta tarefa de escrita, que exigia a redacção de um ensaio sobre um dos três tópicos anteriores.
Como escrever sem inteligência artificial exigia um envolvimento mais substancial, tinham mais capacidade de se lembrar do que tinham escrito no passado. Assim, usaram principalmente a IA para pesquisar novas informações e refinar o que já tinham escrito anteriormente.
Quais são as implicações da IA?
Para entender a situação actual em relação à inteligência artificial, podemos olhar para trás e ver o que aconteceu quando as calculadoras puderam ser utilizadas pela primeira vez.
Na década de 1970, o seu impacto foi regulado, tornando os exames muito mais difíceis. Em vez de se fazerem os cálculos à mão, esperava-se que os alunos usassem calculadoras e dedicassem os seus esforços cognitivos a tarefas mais complexas.
E, realmente, a fasquia foi significativamente elevada, o que fez com que os alunos trabalhassem tanto (se não mais) do que antes de as calculadoras estarem disponíveis.
O desafio com a inteligência artificial é que, na maioria das vezes, os educadores e professores não elevaram o nível de exigência de forma a tornar a IA uma parte necessária do processo. Os professores ainda exigem que os alunos façam as mesmas tarefas e esperam o mesmo padrão de trabalho que esperavam há cinco anos.
Assim sendo, nestas situações, a IA pode realmente ser prejudicial. Os alunos podem, em grande parte, transferir para a IA o envolvimento crítico com a aprendizagem, o que resulta em “preguiça metacognitiva”.
No entanto, assim como aconteceu com as calculadoras, a IA pode e deve ajudar-nos a realizar tarefas que antes eram impossíveis — e ainda exigem um envolvimento significativo. Por exemplo: podemos pedir aos alunos que usem a IA para produzir um plano de aula detalhado, que será então avaliado quanto à qualidade e solidez pedagógica num exame oral.
No estudo do MIT, os participantes que utilizaram IA estavam a produzir os mesmos ensaios de sempre. Ajustaram o seu empenho para entregar o padrão de trabalho que era esperado deles.
O mesmo aconteceria se pedissem aos estudantes que fizessem cálculos complexos com ou sem calculadora. O grupo que fazia os cálculos à mão suava, enquanto aqueles com calculadoras mal piscavam os olhos.
Aprender a usar a IA
As gerações actuais e futuras precisam de ser capazes de pensar de forma crítica e criativa e resolver problemas. No entanto, a inteligência artificial está a mudar o significado disso.
Produzir relatórios com caneta e papel já não é uma demonstração de capacidade de pensamento crítico, assim como fazer contas de dividir complexas já não é uma demonstração de aritmética.
Saber quando, onde e como usar a inteligência artificial é a chave para o sucesso a longo prazo e para o desenvolvimento de competências. Saber hierarquizar quais as tarefas que podem ser transferidas para uma IA para reduzir a dívida cognitiva é tão importante quanto compreender quais as tarefas que exigem criatividade genuína e pensamento crítico.
Exclusivo P3/The Conversation
Vitomir Kovanovic é professor associado e director associado do Centro para a Mudança e Complexidade na Aprendizagem (C3L) na University of South Australia
Rebecca Marrone é professora de Ciências da Aprendizagem e Desenvolvimento, no Centro para a Mudança e Complexidade na Aprendizagem (C3L) da University of South Australia