Tá sabendo que há alguns dias o Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) publicou a Portaria nº 2.664 de 2026, instituindo a Política de Integridade na Atividade Científica, em que se destaca a regulamentação do uso da Inteligência Artificial generativa na pesquisa? Vamos entender…
Do que trata a Portaria do CNPq?
O CNPq publicou a Portaria 2.664/2026, instituindo a Política de Integridade na Atividade Científica, que, dentre outros aspectos, define diretrizes específicas para o uso da IA generativa (IAG) na pesquisa científica, com foco na transparência e na responsabilidade ética. Tal política é válida para os usuários da base do CNPq, que inclui bolsistas, proponentes, servidores e membros de comitês de assessoramento.
Como exemplo, imagine um pesquisador, sob a pressão esmagadora de um prazo para submissão de artigo, utilizando uma ferramenta de IA generativa para aprimorar uma revisão bibliográfica. Uma semana após a submissão, descobre-se uma citação alucinada, ou seja, um “artigo” que não existe. No passado, isso poderia ter sido um sinal de equívoco e confusão, “erro acidental”. Hoje, sob o novo marco desta política, pode-se ter um direcionamento para a responsabilidade acadêmica e profissional.
Esta portaria não é uma mera atualização burocrática; é uma mudança sísmica na forma como a ciência é governada no Sul Global. Os principais pontos tratados na portaria são:

Para pesquisadores, entusiastas da ética tecnológica e analistas de políticas públicas, a portaria pode minimizar o fim do “faroeste” da pesquisa assistida por IA e da agonia desamparada das universidades, podendo dar início a uma era em que a conduta social é tão valiosa quanto os dados.
Quais as principais regras do CNPq para uso da IAG na pesquisa científica?
Talvez a ruptura mais radical com relação à ética científica tradicional recaia sobre a justiça social e de gênero como pilares fundamentais da integridade. A integridade passa a não ser mais definida apenas pela ausência de fabricação de dados, passando a ser definida por como tratamos as pessoas e pela diversidade do conhecimento que respeitamos.
A política do CNPq introduz o conceito de Justiça Cognitiva, o reconhecimento de diferentes formas de conhecimento, além dos paradigmas orientais tradicionais.
Os princípios do CNPq para uso da IA generativa na pesquisa são:

A política reforça a responsabilidade do conteúdo científico produzido no pesquisador, que, desse modo, serve como um “escudo legal” para a instituição, ao mesmo tempo que coloca o ônus da verdade diretamente sobre o indivíduo.
Além disso, o uso de IA para gerar avaliações por pares agora é oficialmente “não recomendado”, sinalizando um desejo de preservar o elemento humano da avaliação acadêmica crítica. Sei que os mais entusiastas das aplicações de IA não irão achar muito bom esse aspecto, mas para mim é extremamente importante no intuito de garantir pontos como a produção de novas perguntas e avanços científicos. “Os autores são integralmente responsáveis pelo conteúdo final, incluindo qualquer plágio ou imprecisão gerada pela ferramenta utilizada.” (Art. 9, I, d/f).
De acordo com o CNPq, não é permitido inserir projetos de pesquisa de terceiros em tecnologias de IAG, visando elaboração de pareceres científicos, sendo expressamente vedado pela Portaria 2.664/2026. Segundo o CNPq, a política visa proteger a propriedade intelectual e a integridade do processo de avaliação, evitando que dados sensíveis de pesquisadores sejam processados por ferramentas externas de IA. O descumprimento pode implicar em advertências, suspensão de benefícios e até o impedimento de participar de processos de fomento do órgão.
Como declarar o uso de IA Generativa em um projeto científico?
A declaração de IA Generativa utilizada no projeto científico pode ser feito conforme destacado a seguir:
O quê declarar: É obrigatório especificar a ferramenta de IA generativa utilizada (nome do software ou plataforma) e a finalidade exata do seu uso no trabalho. Em projetos científicos, deve-se seguir diretrizes rigorosas de transparência e responsabilidade.
Quando declarar: Deve ser informado independentemente da fase da pesquisa, seja na concepção, redação, análise de dados ou submissão.
Onde inserir a informação: Deve constar nos respectivos textos e exposições eletrônicas do projeto ou relatório científico.
Como declarar: Inserir os respectivos textos e exposições eletrônicas e digitais dos documentos de relatórios técnicos, teses, artigos, etc.
Responsabilidade de Autoria: é expressamente proibido submeter conteúdo gerado por IA como se fosse de autoria humana. Os autores humanos mantêm a responsabilidade integral pelo conteúdo final, o que inclui a obrigação de revisar e garantir a veracidade das informações, bem como responder por eventuais plágios ou imprecisões geradas pela ferramenta. ´
O que as universidades têm feito diante do desafio do uso de IA no ambiente acadêmico?
As universidades e demais instituições científicas, tecnológicas e de inovação (ICTs) têm adotado uma postura de corresponsabilidade e governança ativa diante do desafio do uso de IAG no ambiente acadêmico.
Contudo, muitos docentes têm demonstrado dificuldades para lidar com os textos produzidos por IA entregue por estudantes nas diferentes modalidades e níveis de ensino-aprendizagem. Os problemas apontados vão desde a produção de textos sem padronização, descontextualizados e alucinados.
Diante disso, algumas dessas instituições têm elaborado iniciativas para abordar as questões éticas em torno da IA generativa no ambiente acadêmico. Podemos citar alguns exemplos, como o Guia de IA da Universidade Federal de Minas Gerais (UFMG) e o Guia de IAG da Universidade Federal da Bahia (Ufba). No Brasil, a primeira universidade federal a elaborar um guia foi a UFMG, além de um seminário intitulado “Inteligência Artificial, Ética e Universidade”. A Ufba criou uma comissão formada com docentes das diversas áreas do conhecimento e que tinham alguma afinidade com o tema IAG, que culminou na publicação do Guia para Uso Ético e Responsável da Inteligência Artificial (IA) Generativa na UFBA. Vale ressaltar que ambas instituições criaram comissões permanentes para lidar com os desafios e potenciais da IA na universidade.
Em palestra recente realizada na Ufba, o professor da UFMG Virgílio Almeida destacou os principais pontos que as universidades precisam se debruçar para lidar com a problematização da IA no contexto acadêmico e científico. Dentre esses pontos, é preciso ampliar o debate e governança interna para construir diretrizes específicas de acordo com sua realidade. Também é importante orientação e suporte aos pesquisadores e docentes, sendo imperativo alguma forma de suporte para tirar dúvidas.
A questão que fica hoje é: Será que conseguiremos integrar de forma ética e colaborativa o uso da IAG no plano acadêmico e científico?
Fontes citadas:
UFBA. Guia para Uso Ético e Responsável da Inteligência Artificial (IA) Generativa na UFBA. Salvador, 2025. <https://sead.ufba.br/sead-divulga-conheca-o-guia-para-uso-etico-e-responsavel-da-inteligencia-artificial-ia-generativa-na>.
BRASIL. Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). Portaria CNPq nº 2.664, de 6 de março de 2026. Institui a Política de Integridade na Atividade Científica do CNPq. Brasília, DF: CNPq, 2026.
NATAL, Jéssica. MEC e CNPq instituem políticas para uso responsável da Inteligência Artificial. Ponta Grossa, PR: Jornal Ponta Grossa, 16 mar. 2026
**Este é um artigo de opinião e não necessariamente representa a linha editorial do Brasil do Fato.
A Inteligência Artificial tem revolucionado a maneira como fazemos pesquisa científica nos últimos anos. Como servidor público há mais de 16 anos, tenho visto de perto os avanços e desafios que essa tecnologia traz para o nosso trabalho. A IA pode nos ajudar a analisar grandes volumes de dados de forma mais rápida e eficiente, permitindo descobertas que antes seriam impossíveis. No entanto, também levanta questões éticas e preocupações sobre privacidade e viés algorítmico.
É importante refletirmos sobre como podemos utilizar a Inteligência Artificial de forma responsável e ética, garantindo que sua aplicação beneficie a sociedade como um todo. Devemos estar atentos para evitar a exclusão de determinados grupos da pesquisa, garantindo que os benefícios da IA sejam acessíveis a todos. Além disso, é necessário investir em regulamentações e supervisão adequadas para garantir a transparência e a prestação de contas no uso da tecnologia.
Em última análise, a IA tem o potencial de melhorar significativamente a qualidade de vida das pessoas, impulsionando a inovação e acelerando o progresso científico. Cabe a nós, como sociedade, explorar o potencial da Inteligência Artificial de forma responsável e colaborativa, garantindo que seus benefícios sejam maximizados e seus riscos minimizados. Cabe a cada um de nós refletir e decidir como podemos aproveitar ao máximo a IA para criar um futuro melhor para todos.

