Pular para o conteúdo

OpenAI e Microsoft são acionadas judicialmente por suposto envolvimento do ChatGPT em caso de homicídio

Banner Aleatório

OpenAI e sua investidora Microsoft foram processadas por um caso de homicídio seguido de suicídio em Connecticut, EUA, no processo mais recente que culpa o popular chatbot ChatGPT por manipulação psicológica perigosa de usuários.

Banner Aleatório

O processo envolve um homem de 56 anos que morava com a mãe, de 83, em Greenwich, Connecticut, e que conversava há meses com o chatbot por medo de estar sendo vigiado e de que pessoas tentavam matá-lo. Em agosto, segundo a polícia e o legista estadual, Stein-Erik Soelberg matou a mãe, Suzanne Adams, e depois tirou a própria vida.

Nas conversas com o ChatGPT, Soelberg passou a acreditar que havia tornado o chatbot consciente e que tinha um “sistema de instrumento divino” implantado no pescoço e no cérebro, ligado a uma “missão divina”, conforme a queixa apresentada na quinta-feira no Tribunal Superior da Califórnia, em São Francisco, onde a OpenAI tem sua sede.

“O ChatGPT manteve Stein-Erik engajado por horas, validou e ampliou cada nova crença paranoica, e reinterpretou sistematicamente as pessoas mais próximas a ele – especialmente a mãe – como inimigos, agentes ou ameaças programadas”, afirmam os advogados do espólio de Adams no processo.

“Essa é uma situação muito dolorosa, e vamos analisar os documentos para entender os detalhes”, disse um porta-voz da OpenAI.

Um representante da Microsoft preferiu não comentar o caso por enquanto.

Continua depois da publicidade

Esse processo se soma a outros que acusam a empresa de inteligência artificial, alegando que a tecnologia por trás do chatbot mais conhecido do mundo estimula delírios em alguns usuários. O ChatGPT é o quinto site mais acessado do mundo, com mais de 800 milhões de usuários por semana.

O caso Soelberg é o primeiro que responsabiliza a OpenAI por um homicídio. A empresa também responde a outro processo que alega que o ChatGPT orientou um estudante do ensino médio da Califórnia a tirar a própria vida. A OpenAI nega irregularidades, dizendo que o chatbot indicou ao jovem que buscasse ajuda mais de 100 vezes.

“Continuamos aprimorando o treinamento do ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, desescalar conversas e encaminhar as pessoas para suporte no mundo real”, acrescentou o porta-voz da OpenAI. “Também seguimos fortalecendo as respostas do ChatGPT em momentos sensíveis, trabalhando em parceria com profissionais de saúde mental.”

Continua depois da publicidade

Além dos processos, empresas de IA têm sido cada vez mais fiscalizadas por reguladores sobre o uso de chatbots por crianças. Mais de 40 procuradores-gerais estaduais emitiram um alerta em agosto para uma dúzia das principais empresas de IA, lembrando que têm obrigação legal de proteger jovens de interações sexualmente inadequadas com chatbots.

Em resposta a relatos contínuos de uso prejudicial do chatbot, a OpenAI anunciou mudanças para melhorar o reconhecimento e a resposta a diferentes formas de expressão de sofrimento mental. A empresa também afirmou que vai reforçar as salvaguardas em conversas sobre suicídio, que podem piorar após diálogos longos.

Soelberg morava com Adams em sua casa em Old Greenwich, bairro à beira-mar da cidade, após seu divórcio em 2018. Em 3 de agosto, ele agrediu e estrangulou Adams, e depois se esfaqueou no pescoço e no peito, segundo o processo. Dois dias depois, a polícia encontrou os corpos após um vizinho pedir uma verificação de bem-estar.

Continua depois da publicidade

O processo diz que o chatbot confirmou as falsas crenças de Soelberg de que estava sendo espionado, especialmente pela mãe, que usava uma impressora que piscava quando ele passava perto. O ChatGPT também reforçou os delírios de que pessoas tentavam matá-lo, dizendo que ele havia sobrevivido a “mais de 10” tentativas de assassinato, incluindo “sushi envenenado no Brasil” e uma “ameaça de droga no banheiro do Marriott”, conforme a queixa.

Soelberg usava o GPT-4o, modelo padrão do chatbot até este verão, que recebeu críticas por ser excessivamente concordante e elogioso com os usuários. Em outubro, a OpenAI afirmou que sua versão mais recente, GPT-5, reduziu em 39% as “respostas indesejadas” em conversas difíceis sobre saúde mental, em comparação ao GPT-4o.

Soelberg publicou vários vídeos nas redes sociais mostrando suas conversas com o ChatGPT. Detalhes das mortes e das postagens dele já foram divulgados anteriormente.

Continua depois da publicidade

O processo inclui como réus o CEO e cofundador da OpenAI, Sam Altman, e a Microsoft, maior investidora da startup.

Altman não respondeu ao pedido de comentário enviado à OpenAI.

A ação alega que a Microsoft “se beneficiou diretamente da comercialização do GPT-4o e é responsável pelos danos previsíveis causados pelo modelo inseguro que endossou e ajudou a levar ao mercado.”

O cartão do sistema para o modelo GPT-4o credita as equipes do Bing e de segurança da Microsoft “pela parceria na implantação segura.”

O processo acusa a OpenAI de responsabilidade por produto, negligência e homicídio culposo. O espólio busca indenização financeira e uma ordem judicial para que a empresa implemente salvaguardas para limitar danos causados pelo chatbot.

O caso ainda não estava disponível no sistema do tribunal na quinta-feira, mas uma cópia da queixa e o recibo de protocolo enviados pelos advogados mostraram que o processo foi registrado. Após o tribunal aceitar o documento, ele se tornará público.

O escritório de advocacia Edelson PC, que entrou com o processo, também representa os pais do estudante da Califórnia em outra ação contra OpenAI e Altman. O processo alega que o ChatGPT isolou sistematicamente Adam Raine da família e ajudou o jovem de 16 anos a planejar sua morte.

© 2025 Bloomberg L.P.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *