Pular para o conteúdo

Tom Jobim e Getúlio Vargas usaram IA para produzir textos? “Detectores” dizem que sim

Banner Aleatório

Da histórica carta testamento de Getúlio Vargas até a célebre Garota de Ipanema de Tom Jobim, passando por obras de Carlos Drummond de Andrade, Mario Quintana e outros grandes nomes da literatura brasileira. Todos eles utilizaram Inteligência Artificial para escrever seus textos. Pelo menos é o que indica alguns “detectores de IA” disponíveis para consulta na internet.

Banner Aleatório

Com o avanço exponencial do uso de recursos de Inteligência Artificial para a produção de textos, fotos e  vídeos, ferramentas que prometem apontar a “taxa de humanidade” dos conteúdos, separando-os daqueles feitos por robôs, também ganharam espaço. Mas nem todos funcionam corretamente, conforme verificou o InfoMoney em testes realizados com softwares presentes no mercado.

Foram utilizadas oito plataformas com o texto de uma monografia apresentada para uma banca da Pontifícia Universidade Católica do Rio Grande do Sul em 2013. O trabalho acadêmico recebeu nota máxima e oficialmente não está disponível na internet. Os resultados dos detectores, contudo, variaram de 0% de probabilidade de uso de IA na produção do conteúdo para 27% e até contundentes 94% de chances do material ter sido gerado com a tecnologia que, como se sabe, foi criada e disponibilizada para os usuários somente uma década depois.

Continua depois da publicidade

erro detactor ia tecnologia01
Softwares variaram de 0% de probabilidade do uso de IA em um trabalho acadêmico da década passada para até 94% de chances

Mas não foi apenas a monografia que passou incólume pelos detectores. Textos amplamente conhecidos e indiscutivelmente criados no século passado também receberam o selo de “suspeição” para conteúdos gerados por Inteligência Artificial. Entre eles estavam os poemas O Mapa, de Mario Quintana, e Para Sempre, de Carlos Drummond de Andrade, a inconfundível letra de Garota de Ipanema, de Tom Jobim, e até a carta testamento do ex-presidente Getúlio Vargas deixada por ele em agosto de 1954 no Palácio do Catete, no Rio de Janeiro, ao “sair da vida para entrar na história”. Todos os conteúdos receberam mais de 83% de probabilidade para uso de IA, sendo a canção de Jobim a com maior percentual, 92%. 

Segundo Diogo França, diretor de Growth da XP Educação, a primeira empresa certificada em Inteligência Artificial do Brasil, estes detectores de textos são, em essência, versões adaptadas dos próprios modelos de geração de IA. “Eles tentam identificar padrões típicos da linguagem, comparando esses sinais com os de textos escritos por humanos. Em vez de ‘entender’ o conteúdo como um leitor faria, essas ferramentas analisam o estilo, a repetição de palavras, a previsibilidade das frases, entre outras características. O que parece uma escrita ‘limpa demais’ ou ‘organizada demais’ pode levantar suspeitas”, explica França, ao ponderar: “É importante lembrar que estamos falando de probabilidades, não de certezas.”

erro detactor ia tecnologia02
Uso de IA foi apontado em obras de Mario Quintana, Drummond, Getúlio Vargas e Tom Jobim

É possível diferenciar robôs de humanos?

Ainda que não seja difícil localizar na internet serviços que prometem fazer uma radiografia nos conteúdos para apontar o grau de probabilidade do uso de IA em sua produção, muitos deles em versões pagas, o desafio de obter resultados minimamente seguros já levou a própria OpenAI, criadora do ChatGPT, a recuar de iniciativas neste sentido.

Continua depois da publicidade

A empresa lançou um sistema de detecção em 2023, o AI Classifier, e o tirou do ar poucos meses depois, alegando não conseguir resultados confiáveis. “Os detectores enfrentam um dilema: se forem exigentes demais, acusam textos legítimos; se forem mais permissivos, deixam passar conteúdos gerados por IA. O resultado é que a distinção entre o que foi escrito por um humano e o que foi produzido por uma IA está ficando, se não impossível, cada vez mais nebulosa”, avalia França. 

O software descontinuado pela OpenAI, por exemplo, apresentava falhas reconhecidas pela empresa, com cerca de 26% de acertos positivos e de 9% de falsos positivos. “Isso nos mostra como o problema é difícil. À medida que os modelos de IA evoluem, eles aprendem a escrever de forma cada vez mais parecida com a de um ser humano.”

Para o especialista, os resultados equivocados encontrados pelo InfoMoney nos testes realizados não são apenas falhas, mas revelam a complexidade do desafio. “Detectores não acessam diretamente a internet nem sabem que estão lidando com um texto histórico ou de um autor famoso. Eles apenas analisam os padrões da linguagem. E aí entra o paradoxo: os modelos de IA foram treinados com quantidades gigantescas de conteúdo, inclusive textos de grandes escritores. Isso significa que eles aprenderam, em alguma medida, a escrever como esses autores. Então não é surpreendente que, ao analisar um texto legítimo de um Tom Jobim ou de um Getúlio Vargas, o detector conclua que ‘soa como IA’. O modelo, afinal, aprendeu com eles”, analisa.

Continua depois da publicidade

Marca d’água digital

Na busca por proteger a propriedade intelectual e deter a falsificação de um documento digital ou um objeto, a iniciativa que tem ganhado espaço nos últimos anos chama-se Watermarking, técnica que consiste em adicionar uma marca identificativa nos materiais. 

“A ideia é que os textos gerados por IA tragam, de forma invisível, um tipo de ‘assinatura’ embutida que possa ser detectada mais tarde. Essa assinatura seria inserida no momento da criação do texto, sem alterar sua aparência”, explica França. “O problema é que essas marcas ainda são frágeis: basta editar um pouco o texto para que elas desapareçam. Além disso, até agora nenhuma dessas soluções se firmou como padrão de mercado. Ainda estamos longe de ter uma tecnologia realmente eficaz e amplamente adotada para rastrear com segurança a origem de um conteúdo gerado por IA”.

Desafio para as universidades

O uso indiscriminado de inteligência artificial no meio acadêmico não é um problema restrito ao Brasil. Nos Estados Unidos, segundo o jornal The New York Times, escolas e universidades estão reformulando cursos inteiros, passando pelos métodos de ensino e avaliações, em busca de garantir a integridade acadêmica. Uma reportagem entrevistou mais de 30 professores, alunos e gestores educacionais sobre o tema. 

Continua depois da publicidade

Harvard, Yale e a Universidade de Rhode Island, por exemplo, cadastraram mais de 6 mil professores para usar o GPTZero em 2023, ferramenta criada por Edward Tian, estudante de Princeton. A reportagem, contudo, ressalta que há cautela quanto à eficácia dessas soluções, com universidades preferindo adaptar métodos de ensino em vez de depender exclusivamente desses detectores.

Leia também:

França também é cauteloso. “Esses detectores não são 100% confiáveis e podem facilmente gerar falsos positivos, acusando como suspeito um texto que foi, de fato, escrito por uma pessoa. Eles servem como alerta, não como prova”, defende, ao sugerir que escolas e universidades podem utilizá-los para indicar que algo merece atenção, mas “a decisão final deve sempre passar por análise humana”. “Mais do que investir em ferramentas de repressão, acredito que o mais transformador será repensar a forma como avaliamos os alunos. A IA está aí, e ignorá-la pode nos levar a manter um modelo de ensino que já não se sustenta.”

Continua depois da publicidade

Entre as estratégias adotadas por alguns docentes nas universidades americanas, de acordo com o jornal, está a redução dos trabalhos enviados para casa e o retorno de provas escritas à mão, exames orais e atividades em sala. A substituição de temas amplos por perguntas específicas ou experiências pessoais também faz parte da busca por dificultar o uso de chatbots por alunos.

“Na educação, o maior risco vai além do plágio: é o prejuízo ao aprendizado. Se um aluno terceiriza completamente sua produção para uma IA, perde a chance de desenvolver raciocínio próprio, questionar, errar e aprender. O desafio para as escolas, então, não é simplesmente proibir o uso da tecnologia, mas adaptar suas formas de avaliação. Talvez a resposta não esteja em impedir o uso de IA, mas em redesenhar os métodos de ensino para que ela se torne uma aliada do processo educativo”, alerta França. 

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *