ChatGPT, DeepSeek, Gemini Google e outras IAs generativas estão sendo cada vez mais usadas para a criação de dietas e fichas de treino, acompanhamento psicológico e médico, atendimento com advogados, ensino, entre outras nas áreas. Consultar IAs para tomar decisões pode ser uma alternativa rápida e barata em relação ao atendimento especializado. Porém, embora as ferramentas sejam úteis, especialistas mostram que as IAs não podem substituir os profissionais qualificados para tal por diversos motivos. Para entender as consequências desse tipo de uso, conversamos com o professor de Jornalismo da Faculdade de Comunicação Social da UERJ, bacharel em Ciência da Computação e autor do livro “Jornalismo e IA Generativa: ensino, interdisciplinaridade, mercado e ética”, Nemézio Amaral Filho. Confira a seguir.
🔎 Usar o ChatGPT pode deixar você menos criativo, aponta estudo do MIT
🤖 6 truques realmente úteis do ChatGPT que vão fazer você estudar melhor
Uso descontrolado da IA pode trazer consequências; veja as implicações — Foto: Reprodução/DC Studio/Freepik
📝É possível criar uma inteligência artificial em casa? Entenda no Fórum do TechTudo
🔔Canal do TechTudo no WhatsApp: acompanhe as principais notícias, tutoriais e reviews
Por que as IAs não substituem acompanhamento profissional?
Respostas cedidas pelas inteligências artificiais generativas soam convincentes, mas em alguns casos podem ser incorretas e prejudicar o usuário. No âmbito da saúde, mesmo modelos treinados com dados médicos não têm o discernimento necessário para considerar variáveis subjetivas — como a escuta ativa em uma consulta ou a interpretação contextual do estado do paciente. Além disso, há risco de que modelos repitam vieses presentes nos dados de treinamento, o que pode reforçar práticas ultrapassadas.
O mesmo se aplica a áreas como o Direito. Embora o ChatGPT e outros softwares consigam sugerir termos legais, ele não compreende jurisprudências específicas ou nuances culturais e legislativas locais. Na Educação, há benefícios claros para professores, como a preparação de atividades e explicações alternativas de conteúdos. No entanto, substituir a figura do educador por completo compromete o desenvolvimento de habilidades críticas, emocionais e sociais dos alunos — aspectos que vão além da transmissão de conteúdo.
Como as IAs devem ser limitadas em áreas acadêmicas e profissionais?
IAs respondem aos comandos com base em cálculos de probabilidade — Foto: Reprodução/Canva
Nemézio Amaral Filho, professor da FCS/UERJ, explica que as arquiteturas transformers, base da inteligência artificial, são treinadas com um grande volume de dados. Conteúdos existentes na internet “ajudam” no treinamento dessas IAs, que predizem a próxima palavra em um texto ou o pixel seguinte em uma imagem. A partir de um modelo, para torná-la especializada, é realizado um treinamento específico com dados relacionados a um campo do saber, como a saúde ou educação, por exemplo.
“Esses modelos não aprendem nada. Eles calculam a probabilidade do acerto”, ressaltou o professor. Além disso, para garantir que o software vai dar uma resposta mais adequada, é preciso entender quais os dados cedidos. É importante ter atenção à curadoria no sentido da qualidade e apropriação ética das informações.
Outro ponto mencionado pelo pesquisador diz respeito ao equívoco sobre a neutralidade da tecnologia. As respostas cedidas pela IA podem favorecer a indústria farmacêutica ou levar a conclusões que não são necessariamente as mais corretas. Devido à opacidade desses modelos, não é possível afirmar como chegam a esses resultados. Isto ocorre em nome de determinados princípios estabelecidos, como o segredo industrial.
Como a IA pode auxiliar nesses campos?
IAs como o ChatGPT podem facilitar atividades do cotidiano, mas devem ser utilizadas com cautela — Foto: Reprodução/Canva
Apesar dos riscos, a tecnologia deve continuar a ser utilizada. Para Nemézio Amaral Filho, é importante que a população use e se familiarize com as IAs. No entanto, ele destaca que isso tem que ser feito de maneira que não se volte contra a sociedade, evitando o uso indevido dos dados e manipulação de comportamento. A IA pode ajudar na resolução de problemas em qualquer área do conhecimento humano, inclusive dentro da área da saúde, na obtenção rápida de um diagnóstico, por exemplo. Mas este uso requer novas habilidades cognitivas e preocupações humanas.
“As pessoas costumam dizer que aquilo que uma máquina diz está sempre certo. As próprias IAs generativas têm uma mensagem que diz ‘essa é uma tecnologia em construção que pode apresentar erros’. Se pode apresentar erros, esses erros podem ser potencialmente graves, por que estão sendo lançados no mercado? Em nome da experiência do usuário? Que outro tipo de produto você lança no mercado sem que haja algum tipo de teste prévio muito rigoroso?”, questiona.
Riscos de substituir especialistas pelo ChatGPT ou IAs generativas?
Inteligência Artificial é um termo mercadológico, afirma professor da FCS/Uerj — Foto: (Foto: Creative Commons/Flickr/Saad Faruque)
Embora exista a possibilidade das respostas das IAs estarem corretas devido aos cálculos matemáticos, um resultado errado pode ser extremamente prejudicial, sobretudo em assuntos sensíveis. Amaral Filho salienta que o ser humano pode ser responsabilizado pelo seu erro e indaga: “Se uma máquina te dá uma informação errada e a partir dela você toma uma decisão errada, potencialmente danosa, quem é o responsável?”.
Relação entre sociedade e tecnologia no uso de IA
Sociedade e IA: o que caracteriza essa relação? — Foto: Reprodução/Canva
Segundo o professor, o uso exacerbado revela uma relação marcada por conveniência e fetichismo. De um lado, a busca por respostas rápidas e soluções imediatas reflete a preguiça humana e a tendência de adotar atalhos, mesmo quando isso envolve riscos significativos, como diagnósticos incorretos ou orientações inadequadas. Contudo, o simples fato de ser “moderno” ou “avançado” justifica o uso, sem que sejam questionadas a eficácia, ética ou possíveis consequências. Essas características expõem uma sociedade que, seduzida pela promessa de facilidade, abdica de habilidades cognitivas e críticas, delegando decisões importantes a sistemas não regulamentados, cujos erros podem ter impactos graves e irreversíveis.
Além disso, a dependência crescente de IAs generativas evidencia uma lacuna na regulamentação e na discussão pública sobre os limites éticos dessas ferramentas. Enquanto empresas lucram com dados dos usuários, a sociedade se vê refém de tecnologias que não domina, importando vieses culturais e submetendo-se a algoritmos critérios não conhecidos.
Qual deve ser o “padrão” para o uso da IA?
Data centers utilizados pelas IAs gastam muita água e energia, o que impacta diretamente o meio ambiente — Foto: Reprodução: Shutterstock/Sashkin
Nemézio Amaral Filho explica que esse não é um problema específico do Brasil, mas uma questão planetária. Ao mesmo tempo que o uso da IA pode trazer benefícios econômicos, existem alguns problemas graves como danos ambientais. A discussão em torno da regulamentação da IA é mais ou menos avançada a depender do país que você observa. Do ponto de vista do professor, o assunto tem avançado a passos lentos. “Há um interesse muito grande dos donos das BigTechs envolvidas com IA generativa nessa não regulamentação”, conclui.
Veja também: Essa é a IA mais humana lançada até hoje? Testamos a Manus AI— e vimos problemas

Essa é a IA mais humana lançada até hoje? Testamos a Manus — e vimos problemas