Pular para o conteúdo

o que está em jogo na luta pelas conversas do ChatGPT? — TradingView News

Banner Aleatório

Banner Aleatório

A OpenAI está travada em uma batalha legal com o The New York Times sobre o acesso a 20 milhões de conversas de usuários do ChatGPT, com um juiz federal já decidindo contra a empresa de IA esta semana.

O Times inicialmente exigiu acesso a 120 milhões de conversas como parte de seu processo de violação de direitos autorais, posteriormente negociado para uma amostra aleatória de 20 milhões de registros que poderiam revelar como o ChatGPT aprendeu com artigos de notícias.

O diretor de segurança da informação da OpenAI publicou uma declaração pública contundente na quarta-feira, acusando o Times de “invadir a privacidade do usuário”, mas a empresa não mencionou que já havia perdido a batalha judicial subjacente em 7 de novembro.

O que começou como uma disputa de direitos autorais evoluiu para um divisor de águas definindo quais empresas de tecnologia de dados devem abrir mão quando o litígio colide com os compromissos de privacidade e se os usuários podem confiar nas empresas de IA para excluir suas conversas.

O caso de direitos autorais que se transformou em uma crise de privacidade

O Times processou a OpenAI e a Microsoft em dezembro de 2023, alegando que as empresas copiaram ilegalmente milhões de artigos de notícias para treinar o ChatGPT sem permissão ou compensação.

O jornal busca bilhões em danos, além da destruição de todos os modelos GPT treinados em seu conteúdo protegido por direitos autorais, uma ameaça existencial ao principal produto da OpenAI.

Para construir seu caso, o Times argumentou que precisava de acesso a conversas reais do ChatGPT para mostrar com que frequência o modelo reproduz conteúdo de notícias, alucinações e passagens diretamente atribuídas às reportagens do Times.

É aqui que as apostas legais explodem. A juíza Ona Wang decidiu em 7 de novembro que a OpenAI não havia explicado adequadamente por que a privacidade do usuário ainda não estava protegida por ordens de proteção e protocolos de desidentificação exigidos para advogados que revisam os dados.

A OpenAI reagiu, alegando que “não tem conhecimento de nenhum tribunal ordenando a produção por atacado de informações pessoais nessa escala”.

A gigante da IA alertou que o precedente permitiria que qualquer pessoa que processasse uma empresa de IA exigisse dezenas de milhões de conversas sem restringir os pedidos de relevância.

O juiz rejeitou as preocupações da OpenAI, apontando para um caso semelhante em que a Anthropic foi forçada a produzir 5 milhões de conversas de chatbot para um processo de editora de música.

Isso estabelece um precedente que a OpenAI argumenta ser fundamentalmente diferente porque o Times está exigindo conversas completas com o usuário, não apenas pares isolados de prompt-saída.

Por que este caso redefine a privacidade para usuários de IA em todos os lugares

Além da teatralidade do tribunal, essa batalha força um acerto de contas com questões fundamentais sobre a privacidade da IA que os reguladores e as empresas evitam há anos.

O CEO da OpenAI, Sam Altman, agora está pressionando por “privilégio de IA”, proteções legais que tratam conversas com sistemas de IA como comunicações advogado-cliente, que são protegidas contra descobertas.

Esse enquadramento reconhece a realidade desconfortável: milhões de usuários do ChatGPT discutem tópicos delicados, sintomas médicos, ansiedades financeiras e lutas pessoais com uma IA treinada em vastos dados da Internet e agora sujeita a demandas de retenção indefinida em ações judiciais não relacionadas.

Especialistas em segurança e analistas jurídicos alertam que o precedente pode convidar tentativas de descoberta de terceiros em litígios completamente separados, com litigantes buscando acesso aos registros de conversas de IA preservados de um adversário.

Imagine um depoimento hostil em que o advogado oposto exige que seus registros do ChatGPT provem que você discutiu uma estratégia de negócios ou vantagem competitiva.

O tribunal ordenou que a OpenAI mantivesse todas as conversas sinalizadas e deu ao The Times autoridade para expandir sua lista de usuários sinalizados enquanto revisa os registros preservados, o que significa que o próprio Times decide quais conversas permanecem retidas indefinidamente.

A OpenAI garantiu alívio limitado. A partir de 26 de setembro de 2025, a empresa não precisa mais preservar todos os novos registros de bate-papo daqui para frente, apenas os dados já salvos e as conversas sinalizadas pelo Times.

Mas o dano à confiança já está feito. A política de exclusão padrão de 30 dias da OpenAI, uma promessa de privacidade central, agora tem uma grande exceção criada por litígios com os quais os usuários nunca consentiram e não conhecem.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *