Pular para o conteúdo

Na área de educação em ciências, Inteligência Artificial tem sido usada sem referencial ético – Jornal da USP

Banner Aleatório

O Plano Brasileiro de Inteligência Artificial do Ministério da Ciência, Tecnologia e Inovação (MCTI) propõe que a gestão básica de docentes, discentes e o apoio na avaliação das atividades dos estudantes sejam feitos com auxílio dessas tecnologias. Nathália e Santos encaram a proposta com receio, e indicam um preterimento no desenvolvimento de outras tecnologias promissoras para a educação, como realidade virtual ou realidade aumentada. A dupla vê a importância de reconhecer a “atmosfera de fatalismo, como se todas as dimensões estivessem dadas e restasse apenas encontrar a melhor forma de usá-las”. “Nenhuma tecnologia está dada de forma definitiva”, ressalta Santos.

Banner Aleatório

Exposição de dados sensíveis, mecanização do trabalho, sobrecarga e superexploração do trabalho docente e saída “tecnocrática” para problemas profundos são algumas das diversas contradições que o plano do ministério apresenta, segundo os pesquisadores.

Eles chamam atenção para o conceito de “monocultura do conhecimento”: a reprodução e disseminação de teorias e ideias dominantes, muitas vezes em detrimento de perspectivas críticas e diversificadas. Ou seja, há uma perda de criatividade e inovação pelos limites dos horizontes científicos e abordagens.

“No contexto da educação, por exemplo, a monocultura do conhecimento pode reproduzir teorias e métodos tradicionais, o que limita a inovação, a diversidade de perspectivas e reproduz desigualdades e injustiças sociais“ – Paulo Santos

No conceito de monocultura do conhecimento, a questão das fontes utilizadas para treinar os modelos de IA é relevante, pois pode refletir essa lógica e excluir perspectivas importantes do contexto latino-americano ou do Sul Global. Os cientistas também apontam para os riscos de descumprimento de normas jurídicas e/ou institucionais com violação de direitos individuais e coletivos – especialmente em consideração à Lei Geral de Proteção de Dados brasileira. Essa violação pode ser observada com a retenção de conversas antigas, trabalhos e outras informações sensíveis para treinar essas tecnologias.

Destacam também a sobreposição de práticas em relação às orientações dos comitês de ética em pesquisa em suas diferentes instâncias. Como o caso do uso de prompts escondidos em artigos para passar nos pareceres por IA, as práticas podem ferir valores inegociáveis da ciência, conforme Santos. “A integridade, a credibilidade e a função social da prática científica deve ser guiada por um comprometimento ético para garantir que a ciência sirva ao bem comum e ao avanço do conhecimento. Esses princípios são fundamentais e não devem ser influenciados por interesses particulares ou distorções ideológicas”, conclui.

Por esses riscos e valores todos, a questão fundamental deles é: faz sentido treinar os alunos para substituir o próprio esforço e desenvolvimento intelectual nesse contexto?

O editorial Primazia da dimensão utilitária e recuo crítico: inteligência artificial generativa e os valores em disputa na ciência pode ser acessado clicando aqui.

Para mais informações: nhazevedo@ib.usp.br, com Nathalia Azevedo, ou paulosantos@unb.br, com Paulo Santos.

*Estagiário com orientação de Tabita Said

**Estagiária sob orientação de Moisés Dorado

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *