Conforme observa Tiago Augustini de Lima, doutorando da Faculdade de Direito de Ribeirão Preto (FDRP) da USP, esse descompasso torna-se mais nítido quando se observa que o Brasil é o sexto país que mais usa o X, segundo a plataforma alemã Statista. “Isso significa que somos um mercado extremamente lucrativo para a plataforma. E quanto mais lucrativo, mais resistência à regulação. Não é coincidência que o Musk seja contra legislações de redes sociais e IA”, comenta Lima, que pesquisa governança e regulação de IA.
De acordo com Lima, quando alguém gera uma imagem íntima de outra pessoa sem consentimento, viola direitos fundamentais e pode responder criminalmente. “Mas a responsabilidade deveria ser compartilhada. Quem lucrou com a geração dessa imagem? Quem permitiu que a ferramenta existisse sem salvaguardas?”, argumenta.
Recentemente, o Brasil promulgou o ECA Digital e a Lei 15.123/2025, que agrava a pena para pornografia manipulada que cause violência psicológica de gênero. Mas, segundo Lima, a aplicação é limitada. “A lei reconhece o dano, mas sem uma lei geral, a responsabilização de empresas fica dificultada. É muito difícil rastrear quem gerou a imagem e, mais difícil ainda, responsabilizar quem lucrou com ela”, sinaliza.
O contraste fica claro quando se compara o caso brasileiro ao cenário internacional. Lima lembra que, nos Estados Unidos, foi sancionado em 2025 o Take It Down Act, que obriga plataformas a remover, em até 48 horas, conteúdo sexualizado, manipulado ou de assédio. “É uma lei simples e eficaz: define prazo, define quem responde e define multa. Aqui, ainda estamos discutindo quem deveria ser responsabilizado”, observa.
Para além da regulamentação da IA, os pesquisadores consultados são unânimes em indicar que as universidades, sejam públicas ou privadas, têm relação direta com o que está acontecendo no caso do Grok. Isso porque, segundo o professor Osório, a ética, a responsabilidade social e a compreensão do impacto da tecnologia começam na formação dos profissionais que vão construir e operar essas ferramentas. “No ICMC, eu insisto na ética desde o primeiro semestre. A tecnologia nunca é neutra. Quem vai para a indústria precisa decidir para qual lado da força vai seguir, o lado obscuro ou o lado da luz”, brinca.
Segundo ele, há uma tendência perigosa entre jovens desenvolvedores de enxergar o potencial da IA como um desafio técnico, sem considerar os impactos humanos. “A inteligência artificial é fantástica para medicina, para educação, para ciência. Mas é igualmente eficiente para enganar, manipular e explorar. Se não formarmos profissionais éticos, entregaremos ferramentas poderosas na mão de quem não tem compromisso com a sociedade”, alerta Osório.
*Da Fontes Comunicação Científica. Sob supervisão de Denise Casatti, da Assessoria de Comunicação do ICMC
O recente caso Grok trouxe à tona questões importantes sobre a formação ética em inteligência artificial. Como servidor público há mais de 16 anos, percebo a importância de discutir como a IA pode ser útil para melhorar nossa sociedade e qualidade de vida. É fundamental refletirmos sobre como podemos aproveitar ao máximo os benefícios dessa tecnologia, ao mesmo tempo em que nos preocupamos com os potenciais riscos.
A ética na IA é um tema complexo e delicado, que envolve questões como viés, transparência e responsabilidade. É essencial que os profissionais da área sejam capacitados e conscientes dos impactos de suas decisões. A formação ética em inteligência artificial deve ser uma prioridade, para garantir que essa tecnologia seja utilizada de forma responsável e benéfica para todos.
O debate levantado pelo caso Grok é apenas um exemplo de como a ética na IA é fundamental. Devemos continuar discutindo e buscando soluções para garantir que a inteligência artificial seja uma aliada na construção de um mundo melhor. Cabe a cada um de nós refletir sobre como podemos contribuir para um uso ético e responsável da tecnologia, e assim colher os frutos de uma sociedade mais justa e equilibrada.

