O Instituto de Defesa de Consumidores (Idec) encaminhou um ofício, nesta segunda-feira, 12, aos integrantes do Comitê Intersetorial para a Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital, solicitando a adoção de providências diante de supostas violações associadas ao uso da ferramenta de inteligência artificial (IA) generativa Grok, integrada à plataforma X (antigo Twitter).
O Comitê é uma instância que reúne o Ministério da Justiça e da Segurança Pública, o Ministério dos Direitos Humanos e da Cidadania, a Secretaria de Comunicação Social da Presidência da República (Secom) e o Conselho Nacional dos Direitos da Criança e do Adolescente (Conanda).
Segundo a entidade de defesa do consumidor, o questionamento é motivado por evidências de violações de direitos fundamentais, especialmente de crianças, adolescentes e mulheres, associadas ao funcionamento da ferramenta.
O Idec aponta que a Grok tem sido utilizada para gerar, editar e difundir imagens sexualizadas não consentidas, incluindo deepfakes de caráter erótico ou pornográfico envolvendo pessoas reais, inclusive menores de idade, sem a adoção de salvaguardas mínimas de segurança, consentimento ou prevenção de abusos.
Defeito grave
Para o instituto, trata-se de um defeito grave na prestação do serviço, nos termos do Código de Defesa do Consumidor (CDC), uma vez que a plataforma não oferece o nível de segurança legitimamente esperado pelos usuários e pelas pessoas atingidas pelos danos.
O Idec também aponta violações à Lei Geral de Proteção de Dados (LGPD), ao Marco Civil da Internet, ao Estatuto da Criança e do Adolescente (ECA) e ao recém-aprovado ECA Digital.
O ofício também ressalta que o caso da Grok já gerou reações internacionais relevantes, com investigações e exigências de retirada de conteúdo por autoridades da União Europeia, Reino Unido, França e Índia, reforçando o caráter sistêmico e global do problema.
Na Indonésia e na Malásia, a tecnologia foi bloqueada após a função que permite despir digitalmente ter inundado a Internet com fotos de mulheres e menores em imagens manipuladas, sugestivas e obscenas.
“O episódio evidencia que inovação tecnológica sem responsabilidade produz danos reais. Quando uma tecnologia não consegue garantir salvaguardas mínimas, sua interrupção temporária é uma exigência jurídica e ética”, conclui o Idec.
O instituto ainda reforça a necessidade de que o caso seja considerado nos debates sobre a Política Nacional de Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital (em construção pelo Comitê Intersetorial) e sobre a regulação da inteligência artificial, especialmente no âmbito do PL nº 2338/2023, como forma de garantir a proteção reforçada a crianças e adolescentes frente a usos de IA que possam causar danos irreversíveis.
A votação do projeto de lei 2.338/2023, que cria o marco legal de uso da Inteligência Artificial no Brasil, tem previsão de ser ocorrer neste ano, no retorno dos trabalhos do Legislativo em 2026.


