Um vídeo publicado nas redes sociais mostra com preocupação os recursos de inteligência artificial que podem inundar as eleições de 2026 com conteúdos falsos. Somente no Instagram, o vídeo publicado pelo perfil @petersonsouza.ai alcançou mais de 4 milhões de visualizações ao exibir o presidente Lula e o ex-presidente Jair Bolsonaro fazendo os mesmos gestos e expressões faciais de maneira coordenada. O autor o vídeo, Peterson Souza, que se apresenta como “especialista em I.A. e automação”, publicou o viral com o seguinte alerta: “Eleições 2026. Cuidado com o que você irá assistir e ouvir. Nem tudo que você verá será real.” Nos comentários, ele recebeu elogios por exemplificar com transparência como pode ser o mau uso da I.A. durante as eleições.
As eleições 2026 serão as primeiras sob novas normas do Tribunal Superior Eleitoral (TSE) que regulamentam o uso de inteligência artificial na propaganda eleitoral de partidos, coligações, federações partidárias, candidatas e candidatos. A Resolução nº 23.610/2019, por exemplo, proíbe as chamadas deepfakes, obriga o aviso sobre o uso de IA na propaganda eleitoral, restringe o emprego de robôs para intermediar contato com o eleitor e responsabiliza as big techs que não retirarem do ar, imediatamente, conteúdos com desinformação, discurso de ódio, ideologia nazista e fascista, além dos antidemocráticos, racistas e homofóbicos.
Segundo informações do TSE, se um candidato usar deepfake (conteúdo em áudio ou vídeo, digitalmente manipulado por IA), ele poderá ter o registro ou o mandato cassado, com apuração das responsabilidades conforme disposto no Código Eleitoral. Já as big techs deverão adotar e divulgar medidas para impedir ou diminuir a circulação de “fatos notoriamente inverídicos ou gravemente descontextualizados que atinjam a integridade do processo eleitoral”.
Em 2024, foi criado pelo TSE o Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia, uma estrutura permanente para: coordenar monitoramento e remoção de conteúdos falsos; cooperar com órgãos públicos, empresas de tecnologia e instituições privadas e articular respostas rápidas a desinformação durante o período eleitoral — incluindo deepfakes. Esse centro também articula ações com a Polícia Federal, Advocacia-Geral da União e outras instituições para reforçar a fiscalização e responsabilização de quem difunde conteúdos falsos com IA.

