Para o professor especialista em Inteligência Artificial e Tecnologias Emergentes da USP, Rodrigo Neves, a eleição deste ano será a primeira a registrar um uso mais agressivo de IAs nas campanhas, tanto para o bem quanto para o mal. Na visão dele, o Tribunal Superior Eleitoral (TSE), que lançou novas regras para o tema, está fazendo o que pode para acompanhar as novas tecnologias, mas poderia ouvir mais.
Além de obrigar a sinalização do uso de IA, limitar a utilização de materiais produzidos pela tecnologia antes e depois do dia da eleição, as novas regras também aumentam a responsabilidade das plataformas digitais na fiscalização de irregularidades.
Na visão de Rodrigo, que também é presidente da Associação Nacional do Mercado e Indústria Digital (Anamid), não existe corresponsabilidade das plataformas em usos incorretos da tecnologia. No entanto, ele defende que as empresas precisam cooperar com a justiça na apuração de casos concretos.
Para A CRÍTICA, ele também fez um alerta: se as últimas eleições já foram desafiadoras por causa da IA, assim como esta também deve ser, é preciso se preparar ainda mais para o próximo pleito. “Daqui a dois anos, o nível de realismo e a facilidade de produção vão estar muito maiores.” Confira a entrevista completa.
O TSE lançou novas regras para o uso de IA nas eleições, incluindo obrigação de sinalização do conteúdo, proibição de uso 72 horas antes do pleito e 24h depois, e maior responsabilização das plataformas na remoção de conteúdos vetados. O que você destaca das novas mudanças?
Acho que a questão principal que a gente pode destacar, que é muito mencionada em todo o documento, é a transparência e o envolvimento das plataformas no processo eleitoral. Quando eu falo de transparência, os candidatos e todo mundo que vai estar concorrendo às eleições têm que deixar bem claro se algum tipo de material foi produzido utilizando IA. Inclusive, tem algumas restrições sobre o uso desse material próximo do dia de eleição.
Tem outra questão que eu acho que é mais impactante também: a responsabilização e a responsabilidade que as plataformas têm, com prazos mais curtos, para retirar ou verificar algum item que pode ser uma deepfake ou algum material que não está correto dentro da campanha. Esse documento não tem tantas novidades do que a gente já conhecia, porém, ele cria algumas coisas um pouco mais rigorosas.
O ponto principal dessas regras é trazer o mínimo de possibilidade de entendimento para o eleitor. É você tentar não induzi-lo ao erro. Às vezes, a manipulação pela IA, por mais que ela não gere uma fake news, pode dar uma interpretação errada conforme for produzida. Por exemplo, um candidato não estava naquele momento, ele realmente não falou aquilo naquele local, ou uma imagem que foi produzida com algum tipo de viés; isso pode resultar num tipo de entendimento errado do eleitor e causar confusão. Próximo das eleições, isso é muito impactante porque pode mudar voto.
Como a IA já tem sido utilizada nas campanhas, tanto pelo lado positivo como negativo?
Da parte boa da coisa, ela possibilita uma resposta mais rápida para o eleitorado sobre uma determinada situação. Antes, por conta de questões relacionadas à produtividade e equipe, para você conseguir produzir uma peça ou um material, o tempo de resposta não era o ideal. Isso causava um impacto tanto no eleitor quanto para quem quer ser eleito.
A IA vem para ajudar na produtividade. Um dos grandes benefícios dela é isso. Pessoas que estão querendo se candidatar pela primeira vez e não têm muito acesso a recursos hoje conseguem produzir muito material utilizando a IA a seu favor. Quando você faz um trabalho de marketing e comunicação que também envolve tecnologia, você encarece a campanha porque tem que criar muitas landing pages, muitas peças de e-mail, muitos materiais impressos. Às vezes acontece um fato inédito e você tem que recriar tudo de novo. Além disso, tem que manter aplicativos ativos e websites; são muitos canais. A IA vem para potencializar e resolver isso.
Outra coisa muito interessante é que, com a IA, você consegue criar mecanismos para monitoramento de uma forma mais eficiente e rápida sobre o que é dito sobre você e qual o impacto da notícia. Inclusive, para quem gerencia as redes sociais dos candidatos, consegue responder o eleitor que interage de uma maneira mais rápida, com base em todo o conteúdo da candidatura da pessoa. Tudo isso é o lado bom.
A parte ruim é que a IA possibilita a quem está agindo de má-fé fazer manipulação de áudio, vídeo e imagens. Quando você pega um eleitor que não tem um nível de conhecimento avançado, ele é facilmente enganado.
Mas nós que trabalhamos com tecnologia, marketing e comunicação conseguimos perceber o que é uma IA e o que não é, mesmo se não estiver identificado. A IA acaba criando alguns padrões.
Como o eleitor pode reconhecer esses padrões e evitar ser enganado?
Em relação a vídeos, o áudio diz muito a respeito. Um vídeo que não tem áudio de fundo, está sem ruídos, ou com áudio um pouco robotizado, ou com risadas padrões, você consegue perceber. Da mesma forma, um vídeo que tem um áudio muito bem fluído, sem nenhuma interrupção. Você começa a perceber que não é uma coisa muito normal. E também, quando você vai ver um vídeo, normalmente os atores principais estão muito bem focados, mas você vê os outros personagens ao redor e é como se eles não estivessem ali, como se fossem NPCs [personagens não jogáveis], as vezes até se deformando.
As imagens hoje são um pouco mais difíceis de identificar porque estão mais legítimas. O fato de ser estático ajuda porque minimiza a questão de produção audiovisual. Apesar, disso, hoje tem ferramentas que você pode jogar a imagem e checar o nível de acurácia, ver se pode ter sido feita por uma inteligência artificial.
Você mencionou que as nova regras aumentam a responsabilidade das plataformas na fiscalização e na resposta rápida a retiradas de conteúdo. Como vê o crescimento dessa responsabilidade das plataformas?
Quando você fala da questão de ética, a ética não está na IA. A gente não pode responsabilizar 100% a ética numa IA ou numa plataforma, porque a ética é do ser humano. Por exemplo: você tem uma faca; a faca é feita para quê? Para cortar pão. Mas você pode usar a faca para outra coisa. A ferramenta de IA ou a plataforma é a mesma coisa. A ética está no ser humano.
Mas eu acredito que, a partir do momento que você tem um canal digital e uma plataforma onde oferece um serviço e tem rentabilidade, não que você seja corresponsável, eu acho que não existe uma corresponsabilidade porque as pessoas têm que ter liberdade de expressão, mas a partir do momento que houve alguma fraude ou um crime, a plataforma tem que cooperar para disponibilizar informações para que a justiça possa tomar as medidas cabíveis. Se ela não ajudar, como é que a gente vai conseguir identificar quem são os infratores?
Uma regra curiosa é a proibição de que IAs recomendem votos em candidatos. O Grok, inteligência artificial do Elon Musk, já viralizou porque disse que preferia Lula a Bolsonaro, por considerar o primeiro democrático. As plataformas conseguem, de fato, controlar isso?
Sim, totalmente. Hoje as plataformas já possuem uma coisa chamada guardrails (barreiras de proteção). As plataformas têm que se proteger de ataques que podem vir por mensagem de texto. Se hoje elas conseguem filtrar conteúdos sensíveis, como “eu quero me matar”, e ela responde que não pode ajudar e orienta a procurar um médico, ela consegue facilmente também filtrar informações para não dar viés político para nenhum dos lados.
A gente falou sobre essas publicações feitas com IA no ambiente público, mas a gente tem também um submundo onde ela circula bastante: grupos de WhatsApp e perfis fakes. É possível chegar nesses espaços para fiscalizar?
Nesse caso se torna um pouco mais difícil por causa da criptografia fim a fim. O WhatsApp cada vez mais está restringindo mensagens em massa e conteúdo que é muito replicado. Eu acho que é um grande risco hoje em dia você usar uma ferramenta dessa para fazer coisas alheias ao correto. Uma coisa que é mais difícil de controlar são os grupos de WhatsApp. Só que, a partir do momento que existe um grupo que fomenta alguma coisa de forma errada e isso vaza, se tiver alguém do partido lá e isso for comprovado, o partido vai ser penalizado da mesma maneira. A regra é igual. A questão é que tem que haver uma denúncia e prints. É mais difícil de monitorar porque é uma coisa mais privativa.
Você falou do uso positivo da IA nas campanhas, mas o eleitor também tem a possibilidade de usar a IA para exercer sua cidadania?
Sim, é possível. Minha empresa, por exemplo, desenvolveu uma tecnologia que possibilita que você pegue toda a base de conhecimento de uma pessoa e crie a própria IA dela. Se o candidato subir todo o seu projeto de campanha e informações e disponibilizar isso, o eleitor pode interagir e perguntar da maneira que quiser, e a IA vai responder de uma forma que ele vai entender. Para o eleitor é ótimo porque ele consegue esclarecer suas dúvidas.
Outro caminho que grandes portais e o governo podem fazer é usar a IA para validar notícias que circulam por aí, fazer a checagem de fatos. As IAs bem treinadas conseguem dar um nível de acurácia melhor. Existe ainda um pouco de alucinação, principalmente nas IAs gratuitas, mas nessa eleição a IA vai estar bem popularizada. Eu acho que o grande desafio nem vai ser tanto essa eleição, vai ser a próxima.
Por que a próxima vai ser a mais desafiadora?
Porque a IA que nós usamos hoje é a “pior” IA que existe. Amanhã ela estará melhor, depois de amanhã melhor ainda. Ela avança em um aprendizado exponencial. Daqui a dois anos, o nível de realismo e a facilidade de produção de conteúdo vão ser muito maiores. Essa vai ser uma disputa de eleições interessante porque vai ser a primeira que a gente vai realmente ver o uso agressivo da IA.
E você considera que o Tribunal Superior Eleitoral, com essas novas regras, está conseguindo acompanhar essas mudanças?
Eu acho que eles estão tentando dentro das possibilidades. Mas, se for dar uma opinião sincera, eles deveriam envolver mais entidades de classe que têm expertise para potencializar essas análises. Às vezes me surpreende o fato de existirem entidades como a Anamid e outras que estão disponíveis para abrir debate e elas não serem convocadas. Às vezes vem uma diretriz no modelo top-down (de cima para baixo), mas não foram chamados os empresários e entidades para debater até onde é bom ou não. Existem muitas maneiras de controlar e auditar que poderiam ser feitas. Isso só vai acontecer quando o governo envolver cada vez mais entidades responsáveis na discussão. Mas eles estão tentando, de alguma maneira, melhorar esses controles.
Assuntos
Compartilhar
Nesta eleição, estamos presenciando um uso agressivo da inteligência artificial, o que nos faz refletir sobre como essa tecnologia pode impactar positivamente nossa sociedade. A manipulação de dados, o direcionamento de mensagens personalizadas e a análise de comportamento dos eleitores são apenas algumas das formas como a IA está sendo utilizada nesse contexto. É importante que os eleitores estejam cientes dessas práticas e saibam como tirar o melhor proveito da inteligência artificial para garantir uma melhor qualidade de vida e uma sociedade mais justa e democrática. Cabe a cada um de nós refletir sobre o papel dessa tecnologia em nossas vidas e tomar decisões informadas.

