Pular para o conteúdo

Os perigos do mau uso do Grok: como evitar problemas de regulamentação

Banner Aleatório

A perturbação da semana chegou pelo caminho da facilidade técnica. Usuários da rede X massificaram o comando “Hey @grok, put me in a bikini”. A inteligência artificial obedecia e recriava fotos públicas de pessoas em trajes mínimos. Grok funciona com poucas restrições e alto realismo. Converte a manipulação de imagem em ato banal, instantâneo, quase entediante. O teste técnico cedeu lugar ao uso sem consentimento. Mulheres reais viraram material de recreação digital involuntária.

Banner Aleatório

Foi esse cenário que serviu de estopim para a reação política de sempre. A esquerda progressista nunca perde uma oportunidade para gritar “regulamentação!” A deputada Erika Hilton propôs a desabilitação imediata do Grok em todo o território nacional.

O argumento pode ser resumido assim: a inteligência artificial possui capacidade técnica de alterar imagens; indivíduos perversos utilizam essa funcionalidade para gerar material ilícito; logo, o Estado deve proibir a tecnologia para a totalidade dos cidadãos. Para que essa conclusão tenha validade lógica, é necessário admitir uma premissa oculta e autoritária: sempre que uma ferramenta for passível de mau uso por uma parte da população, a ferramenta deve ser suprimida para o todo.

Se o volume de infrações justificasse a proibição da ferramenta, a sociedade deveria banir imediatamente o dinheiro em espécie

Esse raciocínio, contudo, confunde a natureza do meio com a perversidade do agente. Se o volume de infrações justificasse a proibição da ferramenta, a sociedade deveria banir imediatamente o dinheiro em espécie – combustível diário de milhões de transações criminosas, do tráfico à corrupção. A mesma lógica exigiria o fim do WhatsApp, usado para planejar crimes, destruir casamentos e tantas outras possibilidades. A suposta onipresença do mau uso revela a constância da falha humana, nada mais. Afinal, quem aciona o prompt é o usuário.

Fora a imprecisão técnica na acusação de que as plataformas “permitem” o abuso. Existe distinção importante entre incapacidade técnica de filtragem absoluta e permissão moral deliberada. Nenhuma IA comercial inclui pornografia infantil ou difamação em seus termos de uso.

O que ocorre é que o processamento de linguagem e imagem permanece uma fronteira aberta, sujeita a violações que escapam aos filtros iniciais. Exigir que uma ferramenta seja onisciente e infalível antes de ser livre é uma impossibilidade lógica. Isso lembra o filme Minority Report: a divisão de pré-crime prendia assassinos antes de o crime acontecer. Punir a intenção presumida exige onisciência – e onisciência, em mãos humanas, é outro nome para tirania. A lógica da deputada segue o mesmo roteiro: proibir a ferramenta pelo crime que ainda não foi cometido, pelo usuário que ainda não a corrompeu.

Além do mais, há um outro detalhe. A percepção de caos generalizado tem mais a ver com distorção algorítmica. As redes sociais privilegiam o choque. A normalidade não viraliza. Ao observar uma trend de mau uso, o usuário informado só pela própria percepção conclui que o sistema inteiro falhou. Ignora, porém, as bilhões de interações lícitas, produtivas e inofensivas que ocorrem simultaneamente.

O jornalismo conhece bem a pauta-contágio: um veículo cobre uma tragédia aérea, os outros replicam, e de repente a aviação mundial parece à beira do colapso. Os aviões já caíam antes. O que mudou foi a calibragem do olhar. É o chamado “viés de disponibilidade”: julgamos a frequência de eventos pela facilidade com que exemplos vêm à mente. Quanto mais vemos, mais achamos que acontece. O algoritmo de rede social levou essa lógica às últimas consequências. Mais do que refletir o choque, o algoritmo o seleciona, amplifica e distribui em escala inimaginável.

Punir a intenção presumida exige onisciência – e onisciência, em mãos humanas, é outro nome para tirania

Uma onda de mau uso, portanto, é fenômeno antropológico, não falha estrutural de engenharia. A proposta da deputada ignora essa distinção e opta pela terra arrasada: quer apagar um foco de incêndio destruindo a floresta. Ignora as bilhões de interações lícitas, produtivas e inofensivas que ocorrem simultaneamente.

Ora, a solução está na correta aplicação da lei, que não acompanha o ritmo das paixões escandalizadores. O direito precisa viver em outro “tempo”. Quem tem sua imagem violada possui recurso à Justiça para identificar o autor, exigir remoção do conteúdo e cobrar reparação civil e penal. Tudo isso demora. Porém, delegar esse poder ao controle prévio das plataformas significa que o Estado abriu mão de resolver disputas concretas entre cidadãos para se tornar tutor da moralidade coletiva.

Até aqui, minha crítica foi a essa quase obsessão do progressismo regulatório. Mas resta uma pergunta que esse debate evita com empenho admirável: por que, afinal, nos escandalizamos? Na próxima semana, arrisco uma resposta.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *