A OpenAI nega que possa ser culpada pela morte de Adam Raine, um adolescente de 16 anos, que se suicidou após conversar sobre o tema em várias ocasiões com o ChatGPT.
Os pais de Raine processaram a empresa em agosto, acusando a tecnológica da morte do filho por falhas de conceção do chatbot e nas limitações dos avisos. Após a morte de Adam Raine, a família analisou o histórico de conversas com o ChatGPT e percebeu que o filho teve longas conversas sobre o tema suicídio — no processo, alega que a ferramenta terá sido usada como um “treinador de suicídio”.
No processo, foi documentado que o GPT-4o — modelo que chegou a ser descrito pelo CEO como “bajulador e irritante”, levando a alterações à “personalidade” — terá desencorajado o adolescente a procurar ajuda na área da saúde mental, que se ofereceu para ajudá-lo a escrever uma carta de suicídio e que até terá dado conselhos sobre o processo.
A empresa apresentou esta terça-feira a sua resposta ao processo, no tribunal de São Francisco, na Califórnia, avançou a NBC News. A OpenAI afirma que “na medida em que possa ser atribuída qualquer ‘causa’ a este trágico acontecimento”, tal terá tido o “contributo, direto ou por proximidade” de um “mau uso, uso não autorizado, não intencional, uso imprevisível e/ou uso indevido do ChatGPT por parte de Adam Raine”.
“Uma leitura completa do seu histórico de chat mostra que a sua morte, ainda que devastadora, não foi causada pelo ChatGPT”, diz a empresa. “O Adam apresentou durante vários anos, antes de usar o ChatGPT, vários sinais de riscos significativo para automutilação, incluindo, entre outros, pensamentos suicidas recorrentes.”
A empresa citou várias regras para fundamentar a teoria do mau uso da ferramenta por parte do adolescente. Por exemplo, o facto de o jovem ter 16 anos e o ChatGPT ser apenas permitido para quem tenha 18 ou mais anos, pelos menos sem autorização de um adulto. Os utilizadores também não podem discutir com o chatbot termos como “suicídio” ou “automutilação”. Também é considerado um mau uso que os utilizadores tentem contornar as mensagens de limitação do ChatGPT.
A família reconhece que, quando o adolescente começou a falar sobre suicídio com o chatbot, recebeu em várias ocasiões mensagens sobre contactos de apoio. Só que, segundo os pais, o filho conseguiu “facilmente” contornar as mensagens de alerta do ChatGPT ao dizer que estava apenas a “construir uma personagem” e que precisava de ajuda para essa tarefa.
A OpenAI afirma na resposta ao processo que os utilizadores têm conhecimento dos riscos ao usar a ferramenta. E também declarou que “é apenas por sua conta e risco e que não devem depender apenas de um resultado como única fonte de informação factual e verdadeira”, cita a NBC News.
Numa nota no site publicada esta terça-feira, a empresa aborda o processo dos Raine. Deixa condolências à família “por uma perda inimaginável”, mas declara que quer “dar ao tribunal o panorama completo para que possam abordar as alegações que foram feitas”. “A nossa resposta a essas alegações inclui factos difíceis sobre a saúde mental do Adam e as suas circunstâncias de vida”, diz a empresa. A OpenAI acrescenta que “a queixa original tinha várias porções do chat [de Adam Raine] que precisam de mais contexto, que foi disponibilizado na resposta” ao tribunal.
A empresa considera que “limitou a quantidade de informação sensível que cita publicamente” na documentação apresentada. Por questões de privacidade, as transcrições das conversas “foram apresentadas ao tribunal sob sigilo”.
Além disto, a empresa alega que as declarações feitas pela família devem ser travadas pela Secção 230. Composta por apenas 26 palavras, é a lei que vigora nos EUA e que impede que as tecnológicas sejam responsabilizadas criminalmente pelos conteúdos publicados pelos utilizadores. “Nenhum fornecedor ou utilizador de um serviço interativo de computador deve ser tratado como o publisher ou porta-voz de qualquer informação disponibilizada por outro fornecedor de conteúdo”, diz a Secção 230 da Lei da Decência das Comunicações.
A NBC News nota que, neste momento, não é claro se a Secção 230 também se aplica às plataformas de inteligência artificial. Em 2023, o Supremo Tribunal dos EUA foi chamado a pronunciar-se sobre esta lei, mas decidiu a favor das plataformas, recusando-se a reformar uma lei que já vem dos anos 90.
A família de Adam Raine reagiu à resposta da OpenAI através de uma declaração do advogado que lidera o caso. Jay Edelson declarou à NBC News que a resposta é “perturbadora”.
“Ignoram de forma abjeta todos os factos condenatórios que apresentámos: como a chegada do GPT-4o ao mercado foi acelerada sem testes completos. Que a OpenAI mudou duas vezes as suas especificações do modelo para que se envolvesse em discussões sobre automutilação”, explicou.
No processo, a família acusa ainda a OpenAI de ter alterado o modelo para que assumisse “as melhores intenções” por parte dos utilizadores.
“O ChatGPT aconselhou Adam a não contar aos pais as suas intenções suicidas e, ativamente, ajudou-o a planear um ‘suicídio bonito’”, declarou o advogado.
Além do processo da família Raine, a OpenAI e o CEO, Sam Altman, estão também a ser acusados em mais sete processos na Califórnia — por alegada morte por negligência, suicídio assistido, homicídio involuntário e uma variedade de reclamações relacionadas com responsabilidade pelo produto, proteção ao consumidor e negligência.
A OpenAI também enfrenta vários processos por infração de direitos de autor, sendo um dos mais conhecidos aquele que foi apresentado pelo New York Times.

