Há três anos, a 30 de novembro de 2022, o nome “ChatGPT” entrou discretamente na vida digital de milhões de pessoas. Num site da OpenAI, um simples campo de texto permitia escrever uma pergunta e receber, em segundos, uma resposta longa, articulada e, muitas vezes, surpreendentemente útil. Em poucas semanas, a ferramenta saltou das redes sociais para as redações, das escolas para as empresas. Em tempo recorde, passou de curiosidade tecnológica a símbolo de uma suposta nova era da inteligência artificial, apresentada como capaz de escrever, programar, analisar e até “pensar” melhor do que nós.
O impacto inicial foi de deslumbramento. Professores viram texto irrepreensíveis produzidas em minutos, estudantes descobriram um explicador disponível 24 horas por dia, programadores testaram blocos de código gerados em segundos, jornalistas experimentaram rascunhos de notícias e títulos alternativos. Profissionais de áreas tão diferentes como o direito, o marketing ou a consultoria ficaram impressionados com a fluência das respostas e a facilidade de uso. Em paralelo, multiplicaram-se previsões extremas: do fim dos trabalhos de casa ao desaparecimento de várias profissões, passando pela promessa de uma explosão de produtividade que iria mudar tudo.
A explicação técnica, baseada em modelos de linguagem treinados em grandes volumes de texto, interessou a poucos. O que contava era a experiência: uma máquina que escrevia como um ser humano, mantinha uma conversa coerente, adaptava o tom ao pedido, aceitava instruções específicas e não se cansava. A interface, semelhante a uma janela de chat, reforçou a sensação de proximidade: muitos utilizadores sentiram que estavam a falar com um semelhante, não apenas a interagir com um programa.
À medida que o uso se generalizou, o ChatGPT começou a “sair” do seu próprio site. Surgiram versões mais avançadas, com melhor desempenho em tarefas complexas, capacidade de interpretar imagens, acesso a informação atualizada através da ligação à internet e integração em aplicações de e-mail, processadores de texto, navegadores, plataformas de colaboração e aplicações móveis. Em poucos meses, deixou de ser um destino para se tornar uma camada invisível por cima de ferramentas já familiares. Em paralelo, ganhou voz: passou a ser possível falar com o sistema e ouvir respostas em tempo quase real, num registo cada vez mais próximo de um assistente pessoal.
Ao mesmo tempo, cresceram as preocupações. Começou-se a questionar a proteção de dados, a utilização de informação pessoal e a forma como os modelos eram treinados. Algumas instituições de ensino começaram a mostrar alguma (não suficiente) preocupação e começaram a rever regulamentos, perante trabalhos escritos total ou parcialmente com recurso à IA. Algumas entidades (muito poucas) começaram a discutir enquadramentos legais específicos. Ficou claro que a promessa de inovação sem fricção colide em sistemas jurídicos, direitos fundamentais e riscos bem conhecidos: desinformação, perda de privacidade, concentração de poder tecnológico em poucas empresas.
Três anos depois, o ChatGPT já não é novidade, mas também está longe de ser uma tecnologia banal. Em muitos contextos, tornou-se rotina: é usado para redigir e rever e-mails, preparar relatórios, traduzir documentos, estruturar apresentações, gerar documentação técnica, apoiar investigações académicas, produzir materiais de comunicação. Para pequenas empresas e profissionais independentes, funciona como um canivete suíço de escrita e organização. Para estudantes, é explicador, tradutor e, em alguns casos, autor silencioso de trabalhos que levam o nome de outra pessoa.
Mas a normalização da utilização não deve ser confundida com compreensão do que está em causa. A primeira clarificação é estrutural: o ChatGPT não aprende com a vida como nós. Por detrás da interface amigável, há modelos gigantescos treinados em grandes volumes de texto, ajustados e, depois, essencialmente congelados. A partir desse momento, reproduzem padrões estatísticos do que “viram”. Quando o mundo muda (novas leis, novas crises, novas descobertas), o sistema não acompanha automaticamente. Para incorporar conhecimento recente, são necessários novos ciclos de treino e afinação, caros, demorados e energeticamente intensivos. A imagem de uma inteligência artificial que acompanha em tempo real o fluxo dos acontecimentos continua a ser mais marketing do que realidade.
A segunda clarificação diz respeito às falhas. Em três anos, a qualidade das respostas melhorou, mas não desapareceram as chamadas “alucinações”: factos inventados, referências bibliográficas que nunca existiram, leis imaginárias, biografias deturpadas, tudo apresentado com grande segurança no tom. Juntam-se a isto raciocínios que se contradizem, dificuldades em manter coerência em argumentos longos, interpretações erradas de perguntas ambíguas. Não são casos isolados num sistema quase perfeito; são consequência de um mecanismo que prevê a sequência de palavras mais provável, mesmo quando não tem base factual sólida. A fluência do texto esconde a fragilidade do raciocínio e incentiva o utilizador a confiar onde deveria verificar.
O terceiro ponto é económico. O discurso dominante promete disrupção total e ganhos de produtividade em larga escala, mas manter e desenvolver modelos desta dimensão implica centros de dados gigantescos, consumo elevado de energia, hardware especializado e equipas altamente qualificadas. Ao mesmo tempo, existe pressão para disponibilizar serviços gratuitos ou baratos a centenas de milhões de utilizadores. A distância entre a narrativa do futuro e a sustentabilidade financeira de longo prazo continua por esclarecer. A história recente do sector tecnológico tem vários exemplos de ciclos de euforia seguidos de correções bruscas, quando a realidade dos custos se impôs.
Há ainda uma questão conceptual: o ChatGPT é um compilador estatístico de linguagem, não um sistema cognitivo no sentido humano. É excelente a resumir, reescrever e combinar informação, mas revela limitações quando se exige compreensão causal robusta, consistência argumentativa prolongada ou adaptação a situações totalmente novas. Em domínios críticos (decisões clínicas, justiça ou segurança), confiar cegamente neste tipo de tecnologia, sem mecanismos fortes de supervisão e responsabilidade, é menos inovação e mais imprudência.
No mundo do trabalho, os efeitos são visíveis e desiguais. Em muitas profissões, o ChatGPT foi adotado como assistente permanente porque pode ajudar a redigir contratos, preparar pareceres, escrever código, criar campanhas de marketing, organizar relatórios. Tarefas rotineiras tornaram-se mais rápidas; equipas pequenas fazem hoje o que antes exigia estruturas maiores. Ao mesmo tempo, funções associadas a escrita básica, tradução, atendimento ao cliente ou programação repetitiva estão sob pressão. A tentação de substituir pessoas por “assistentes” automatizados é real, sobretudo em contextos em que o custo pesa mais do que a qualidade ou o impacto social.
Na educação, o balanço é igualmente ambivalente. A ferramenta pode ser usada como atalho para evitar esforço, mas também pode ser um apoio pedagógico poderoso através da geração de exemplos adicionais, reformular explicações, adaptar o nível de linguagem, fornecer pistas para quem estuda em casa ou em contexto de maior dificuldade. A questão-chave passa a ser o modelo de ensino. A resposta aponta para competências menos mecanizáveis como o pensamento crítico, capacidade de analisar fontes, discussão de ideias, trabalho colaborativo. Saber usar IA torna-se importante, mas continua a ser essencial saber pensar para lá dela.
Na produção e circulação de conhecimento, o ChatGPT funciona como acelerador e potencial fonte de ruído. Ajuda a estruturar textos, resumir bibliografia e clarificar conceitos, mas pode introduzir erros se for usado como substituto de leitura crítica das fontes. No espaço público, a mesma tecnologia que simplifica explicações sobre leis e políticas pode ser usada para produzir desinformação em escala, com textos, imagens, áudio e vídeo falsos cada vez mais convincentes. A proliferação de conteúdos gerados por IA na internet levanta ainda a perspetiva de retroalimentação com os novos modelos a serem treinados em dados onde o contributo da própria IA é crescente, com risco de degradação da qualidade e aumento de viés.
Há, finalmente, uma dimensão pessoal. Cresce o número de pessoas que recorre ao ChatGPT não só para tarefas práticas, mas também para desabafar, pedir conselhos, preparar mensagens delicadas ou encontrar palavras em momentos difíceis. A ferramenta responde com tom organizado, por vezes quase empático. No entanto, não sente, não lembra, não conhece verdadeiramente quem está do outro lado. A pergunta deixa de ser apenas o que a tecnologia consegue fazer e passa a ser também o que estamos dispostos a entregar da nossa intimidade a sistemas que não controlamos.
Olhando para o futuro próximo, é provável que a inteligência artificial generativa se torne ainda mais presente e invisível. Estará integrada em serviços públicos online, bancos, seguros, plataformas de saúde, sistemas de apoio ao cliente, ferramentas de trabalho remoto. A batalha imediata será pela transparência, proteção de dados e responsabilização quando decisões automatizadas tiverem consequências reais. Num horizonte de cinco anos, a reorganização de processos e profissões poderá ser profunda, com mais tarefas automatizadas e mais funções centradas na supervisão, na curadoria e na relação humana. A concentração de poder em poucas empresas pode intensificar-se, obrigando reguladores a escolhas difíceis, como observável pelas diferentes velocidades da Europa, dos EUA e da China.
Para lá da década, o cenário é incerto. Alguns antecipam sistemas de inteligência artificial capazes de rivalizar com o desempenho humano em quase todas as tarefas cognitivas; outros esperam apenas melhorias incrementais em modelos como o ChatGPT. Em qualquer caso, a questão essencial é política e cultural: que tipo de relação queremos estabelecer com estas ferramentas? Queremos usá-las para ampliar a nossa capacidade de compreender e decidir, ou para fugir ao esforço de pensar?
Três anos depois do lançamento, uma conclusão impõe-se: o ChatGPT não é o “cérebro universal” que o entusiasmo publicitário sugeriu, nem o monstro que alguns temeram. É uma tecnologia poderosa, útil e impressionante, mas limitada, cara e profundamente condicionada por interesses económicos e escolhas regulatórias. Não compreende o mundo como nós, não acompanha sozinho a mudança dos factos, não tem consciência do que produz. Imitar com fluência não é o mesmo que pensar com profundidade. E, se há frase que vale a pena fixar neste aniversário, é esta: fluência não é inteligência. O futuro da inteligência artificial dependerá, em grande medida, da nossa capacidade de não esquecer essa diferença.

