A inteligência artificial está se infiltrando nas universidades com velocidade e ambição. OpenAI, criadora do ChatGPT, está promovendo uma campanha agressiva para tornar seu chatbot uma ferramenta padrão no ambiente acadêmico. A proposta? Substituir tutores, orientadores de carreira e assistentes de sala por um sistema de IA “personalizado”. Mas será que isso ajuda os alunos a aprender… ou apenas a depender?
ChatGPT no campus: mais do que um assistente virtual
Segundo reportagem do New York Times, a OpenAI quer que cada aluno universitário tenha sua própria conta do ChatGPT desde o primeiro dia de aula — assim como recebe um e-mail institucional. A ideia é que a IA sirva como tutor particular, auxiliar de professores e até como conselheiro de carreira.
Diversas universidades já toparam o acordo. Instituições como a Universidade de Maryland, Duke University e a California State University estão adotando o ChatGPT Edu, a versão premium voltada para o meio acadêmico.
Mas a OpenAI não está sozinha. Google oferece sua suíte Gemini gratuitamente até o final do ano letivo de 2025-26, e a xAI, de Elon Musk, liberou acesso ao Grok para estudantes durante a temporada de provas.
De vilão a aliado? A guinada controversa das universidades
O mais curioso é que muitas dessas instituições haviam inicialmente proibido ou restringido o uso de IA em sala de aula, temendo fraudes e dependência tecnológica. Agora, estão integrando a tecnologia ao currículo oficial.
Essa mudança repentina levanta preocupações. Estudos recentes mostram que o uso de IA pode prejudicar habilidades de raciocínio crítico. Ao recorrer constantemente a uma IA para resolver questões complexas, os estudantes correm o risco de “terceirizar” o próprio pensamento — usando atalhos em vez de desenvolver capacidades cognitivas.
Além disso, quando o foco está em respostas rápidas, perde-se o processo mais valioso do aprendizado: a construção de conhecimento por meio da dúvida, do erro e da descoberta.
A desinformação que vem com a IA
Um dos problemas mais persistentes da IA generativa é sua tendência a “alucinar” — ou seja, inventar fatos, fontes e até decisões judiciais.
Em um experimento com modelos treinados em direito de patentes, pesquisadores descobriram que todos os sistemas testados apresentaram erros, inclusive casos inventados. O modelo da OpenAI foi classificado como “inaceitável” ou “prejudicial ao aprendizado” em cerca de 25% das respostas.
Para uma ferramenta que pretende ser tutor e conselheiro, esse índice de erro é alarmante.
A perda invisível: interação humana e vida em comunidade
Outro efeito colateral pouco debatido é a perda da convivência social. Chatbots respondem rápido, mas não constroem laços. Substituir um tutor por uma IA significa abrir mão de uma interação que estimula empatia, confiança e comunicação — elementos essenciais para a formação emocional e intelectual.
Quando as universidades investem em IA, estão deixando de investir em espaços e serviços que estimulam o contato humano. A longo prazo, isso pode gerar uma geração de estudantes mais isolada, menos colaborativa e com habilidades sociais enfraquecidas.