Pular para o conteúdo

não sabemos se o registro é seu, da OpenAI ou do governo

Banner Aleatório

Tudo o que você escreve pode ser usado contra você. É isso que os tribunais dos EUA estão propondo ao tentar forçar a OpenAI a manter indefinidamente todos os registros de nossas conversas com o ChatGPT. E não é só isso: eles também estão exigindo que ela mantenha os bate-papos que, teoricamente, pensávamos ter sido excluídos. A situação levanta a questão: quem é o proprietário de todos esses dados, então?

Banner Aleatório

Depois de uma recente petição do NYT, a juíza Ona Wang, que julgou o caso, ordenou que a OpenAI começasse a preservar indefinidamente os registros de todo o conteúdo potencialmente relevante, incluindo conversas temporárias e até mesmo a saída de texto gerada pela API e usada por usuários pagantes. Até então, a política de retenção de dados da OpenAI impunha um limite de 30 dias para a preservação das conversas. Depois disso, teoricamente, elas eram excluídas sem mais delongas.

O receio do NYT e de outros meios de comunicação é que os usuários que usam o ChatGPT para contornar os paywalls “possam estar mais propensos a excluir todas as suas buscas para encobrir seus rastros”, explicou a OpenAI no processo judicial. De acordo com os autores da ação, faltam evidências para provar isso, pois a OpenAI só compartilhou amostras de registros de bate-papo com os quais os usuários concordaram com a retenção da empresa.

A resposta oficial da OpenAI às exigências de dados do NYT é clara: “Acreditamos firmemente que isso é um exagero. Isso põe em risco sua privacidade sem realmente ajudar a resolver o processo. É por isso que nos opomos a isso”. Os funcionários da empresa explicam que pediram ao juiz para reconsiderar a ordem, ressaltando que “essa retenção indefinida de dados do usuário viola os padrões do setor e nossas próprias políticas”.

Quais dados são afetados pela ordem?

A exigência do juiz é muito ampla, mas há detalhes importantes que deixam claro quem é afetado e quem não é:

  • Se você usar a versão gratuita do ChatGPT, uma assinatura do ChatGPT Plus, Pro, Team ou API OpenAI sem um contrato ZDR (Zero Data Retention), você será afetado e seus chats poderão ser preservados indefinidamente.
  • Usuários das contas ChatGPT Enterprise ou ChatGPT Edu não são afetados por essa ordem.
  • Os usuários da API que optaram pela ZDR não são afetados pelo contrato.

O que é ZDR?

A “emenda ZDR” refere-se à política de Retenção Zero de Dados que garante que nenhum prompt seja gravado e que nenhum modelo seja treinado com nossos dados. Esse gerenciamento de dados é especialmente importante para usos empresariais, por isso é ativado por padrão no ChatGPT Enterprise. Para todos os outros planos, o ZDR não é ativado por padrão e as empresas e indivíduos interessados devem entrar em contato com a OpenAI para negociar os termos. Não há preços publicados para essa opção, mas ela é um serviço extra e, portanto, impõe um custo adicional ao uso da API dos modelos da OpenAI.

De acordo com a OpenAI, não há evidências de exclusão intencional de dados e tudo não passa de especulação. Também não há evidências de que os usuários que violam direitos autorais ao usar o ChatGPT para evitar paywalls tenham maior probabilidade de excluir seus chats. “A OpenAI não destruiu dados e certamente não os excluiu em resposta aos eventos do processo. A ordem judicial parece ter assumido incorretamente o contrário.”

A empresa defende seu dever de proteger “os dados e a privacidade de seus usuários” e explica que milhões de usuários usam o ChatGPT todos os dias por motivos que vão “do mundano ao profundamente pessoal”. Isso significa que esses usuários estão compartilhando dados confidenciais que envolvem não apenas informações financeiras ou médicas, mas coisas como seus sentimentos e reflexões particulares.

A quem pertencem os dados?

Essa ordem judicial abre um debate perturbador: quem tem o controle dos dados que trocamos com o ChatGPT e, por extensão, com qualquer outro chatbot. Essas empresas estão teoricamente encarregadas de gerenciar esses dados e excluí-los, mas será que pertencem a elas?

O ChatGPT e o Gemini usam chats para treinar seus modelos por padrão, embora esse comportamento possa ser desativado. O Claude e o Copilot, por exemplo, não o fazem. Os dados nos dois últimos casos são um pouco “mais seus”. Mas eles continuam a mantê-los por um período de tempo variável, geralmente 30 dias.

Com essa ordem judicial, os EUA planejam poder acessar esses dados se necessário, embora teoricamente deva haver uma investigação judicial por trás disso, como a que está sendo realizada com o The New York Times. No entanto, esses dados são ainda mais valiosos como fonte de informações não apenas para empresas privadas, mas também para agências e serviços de inteligência.

Chatbots e confidencialidade

Dado o uso cada vez mais sensível desses chatbots — tanto profissional quanto pessoal — deve haver garantias muito mais fortes de que o ChatGPT, o Gemini, o Claude e outros chatbots no mercado tratem essas conversas com absoluta confidencialidade. Isso é exatamente o que Sam Altman, CEO da OpenAI, estava dizendo quando afirmou que “conversar com uma IA deve ser como conversar com um advogado ou um médico”.

E quanto à criptografia? Uma opção seria que as conversas com esses chatbots pudessem ser criptografadas de ponta a ponta, como acontece com os serviços de mensagens instantâneas, mas na prática isso é inviável. Os servidores que recebem nossa solicitação precisam “vê-la” para processá-la e retornar uma resposta, e a criptografia tornaria isso impossível. A Apple já propôs uma solução com o Private Cloud Compute, mas, no momento, as principais empresas de IA mantêm uma abordagem em que essas conversas são tratadas sem nenhuma criptografia. A garantia de privacidade é o que elas dizem ter com seus usuários, mas certamente têm acesso a essas conversas se precisarem.


Matéria traduzida e adaptada por Allana Aristides

Inscreva-se no canal do IGN Brasil no Youtube e visite as nossas páginas no TikTok, Facebook, Threads, Instagram, Bluesky e Twitch!



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *