Pular para o conteúdo

A ilusão de privacidade engana quem desconhece os perigos da IA

Banner Aleatório

As redes sociais e a inteligência artificial (IA) invadem o cotidiano, transformando a privacidade em um castelo de vidro: aparentemente sólido, mas frágil diante de olhares invasivos. Dados pessoais viram mercadoria, e confidências a ferramentas como o ChatGPT, sem proteção legal, podem acabar em tribunais ou em mãos erradas, expondo vulnerabilidades que muitos nem imaginam.

Banner Aleatório

Sam Altman, CEO da OpenAI, revela que usuários compartilham com o ChatGPT segredos profundos: lutas com a saúde mental, conflitos relacionais, questões legais delicadas. Nada garante sigilo. Conversas, mesmo deletadas, persistem em servidores, suscetíveis a pressões jurídicas. A ilusão de privacidade engana a maioria, que desconhece os perigos iminentes.

Usar IA para tarefas profissionais – redigir relatórios, analisar dados – ou pessoais – planejar viagens, resolver dúvidas – entrega informações sensíveis. Empresas treinam modelos com esses dados, arriscando vazamentos, manipulações ou discriminações algorítmicas.

O mau uso, bem documentado, ameaça identidades, expondo-nos a fraudes, vigilância corporativa ou exploração comercial indevida.

A privacidade é como um jardim murado, onde cada confidência é uma semente plantada com cuidado. A IA, como um vento desavisado, carrega essas sementes para além dos muros, espalhando-as em terras estranhas, onde florescem sem controle, acessíveis a hackers, empresas ou governos curiosos.

Grave é buscar na IA apoio terapêutico.

Confidenciar traumas, ansiedades ou dilemas ao ChatGPT, esperando respostas ancoradas em psicologia ou psicanálise, é arriscado. Essas ferramentas não são terapeutas; carecem de sigilo profissional. Dados sensíveis, sem proteção, tornam-se alvos fáceis de exploração digital ou manipulação.

Outros países já punem abusos de IA.

Na Itália, a OpenAI foi multada em 15 milhões de euros em 2024 por processar dados sem base legal, violando normas de transparência.

Na França, a Clearview AI levou 20 milhões de euros por coleta biométrica irregular.

Nos Países Baixos, a mesma empresa pagou 30,5 milhões por uso ilegal de biometria.

Esses casos acendem um alerta vermelho.

Sem regulação global, a IA transforma confidências em mercadorias valiosas. Altman sugere tratar conversas com IA como consultas médicas, mas a realidade é sombria. Temos que continuar insistindo, pressionando por leis que protejam direitos humanos frente à inovação desenfreada, antes que a privacidade se torne apenas uma memória distante.

* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *