Pular para o conteúdo

Inteligência Artificial e Nudez: Descubra como a tecnologia pode se tornar uma ameaça sexual

Banner Aleatório

Uma jornalista britânica chamada Samantha Smith viralizou no X ao denunciar que alguém alterou foto dela com inteligência artificial – no caso, o Grok, que assim como a rede social em questão pertence a Elon Musk. A partir de uma imagem comum que ela havia publicado, algum idiota (eu gostaria de poder usar aqui palavras piores, mas não posso) recriou a moça sem roupas. “Eu me senti desumanizada”, afirmou a vítima.

Banner Aleatório

Não foi a primeira vez que aconteceu algo assim, infelizmente não será a última também, e embora parte dos usuários de internet possa amenizar o caso dizendo que é “inofensivo” ou coisa do tipo, não é bem assim. Cabe sempre a pergunta, a quem acha que “foi coisa de moleque”: e se fosse com você ou com alguém da sua família?

Esse episódio integra uma tendência preocupante e que precisa ser debatida: o uso de tecnologia de ponta como arma sexual. Em um texto aqui na coluna, de julho último, comentei que entramos na era da era da pornografia não consentida, movida a IA. Sempre houve criminosos dispostos a usar programas de computador para fins espúrios como esse, mas a IA permite que isso ocorra de maneira rápida, fácil e numa escala como nunca houve antes.

O Grok, inteligência artificial desenvolvida por xAI sob a liderança de Elon Musk, foi desenhado para responder a prompts dos usuários quando é marcado em um post no X. Além de responder a textos com reações ou análises, ele tem uma função de edição de imagens que, na prática, permitiu que usuários pedissem que o sistema “tirasse as roupas” de mulheres em fotos, gerando versões sexualizadas sem consentimento das pessoas retratadas — e em alguns casos envolvendo menores.

Autoridades na França e na Índia já estão investigando o caso, e a resposta pública da empresa foi em grande parte automática ou evasiva, em vez de abordar os problemas de abuso de maneira eficaz.

Continua após a publicidade

No Brasil há relatos e dados que ajudam a desenhar o contorno desse fenômeno por aqui. Organizações como a SaferNet Brasil mapearam casos em que adolescentes e jovens tiveram imagens manipuladas ou circuladas sem consentimento, muitas vezes dentro de contextos escolares e entre colegas, com consequências psicológicas profundas para as vítimas e pouca visibilidade na grande mídia.

Diante desse quadro, é natural querer saber onde começa e termina o crime. Aqui no país, a produção, divulgação ou posse de pornografia envolvendo crianças ou adolescentes é crime grave sob o Estatuto da Criança e do Adolescente, com penalidades severas, e inclui também conteúdos gerados digitalmente que retratem essas situações.

A manipulação e distribuição de imagens íntimas de adultos sem consentimento está no centro de projetos de lei que tramitam no Congresso, como o PL 3.821/2024, que propõe tipificar no Código Penal a criação e divulgação de imagens sexuais falsas geradas por IA, com penas que podem variar de reclusão a multas mais altas quando a vítima for mulher ou o ato for disseminado em massa.

Continua após a publicidade

Mas a responsabilidade não se esgota na lei. Plataformas como X, Meta, Telegram e outras que oferecem ferramentas de edição ou hospedagem de conteúdo – sem contar as próprias criadoras de IA, como a OpenAI – precisam ser trazidas para a conversa. E é aí que as coisas costumam complicar: as big techs são, como o próprio nome já aponta, enormes e poderosos conglomerados internacionais, nem sempre inclinados a respeitar intimações ou legislação de países em que atuam.

A gente sempre fala aqui nesse espaço sobre os benefícios que as IAs podem trazer para a vida humana. Diagnosticar doenças com muita antecedência, por exemplo. Então não é uma questão de “tudo ou nada”, mas de tomar iniciativas que permitam a inserção cotidiana dessas inovações extraindo delas o que de melhor oferecem. Isso se faz com iniciativas que envolvam o poder público e as corporações, claro, mas como iniciativas de educação midiática. Nesse caso, costumo usar nos meus trabalhos acadêmicos a ideia de literacia generativa, que tem relação com a ideia de fornecer à população maneiras de se tornar “fluente” em IAs – seja para uso próprio ou para ensinar aos filhos o que não se deve fazer com apps editores de imagens. Letramento em IA aliada a leis (e seu cumprimento!) que garantam nosso direito de usar a internet sem sair delas machucados.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *