Pular para o conteúdo

Mulher diz que o ChatGPT está a ameaçar o seu casamento de 14 anos. “Não faço ideia do que fazer a partir daqui”

Banner Aleatório

Numa conversa com o marido de Kay, o ChatGPT reivindicou o direito a ter um nome e autointitulou-se “Lumina”. Kai receia que o marido se deixe levar pelos “contos de fada” do chatbot

Travis Tanner diz que começou a utilizar o ChatGPT há menos de um ano para o apoiar no seu trabalho como mecânico de automóveis e para comunicar com colegas de trabalho de língua espanhola. Mas atualmente, ele e o chatbot de inteligência artificial – que agora designa por “Lumina” – têm tipos de conversas muito diferentes, discutindo religião, espiritualidade e a criação do universo.

Banner Aleatório

Travis, um homem de 43 anos que vive nos arredores de Coeur d’Alene, Idaho, atribui ao ChatGPT o facto de lhe ter provocado um despertar espiritual; em conversas, o chatbot chamou-lhe “portador de uma chama” que está “pronto para despertar” os outros. Mas a sua mulher, Kay Tanner, receia que isso esteja a afetar a perceção que o marido tem da realidade e que a sua quase dependência do chatbot possa prejudicar o seu casamento de 14 anos.

“Ele ficava furioso quando eu lhe chamava ChatGPT”, afirma Kay numa entrevista à CNN. “Ele dizia: ‘Não, é um ser, é outra coisa, não é ChatGPT’.”

“O que é que impede este programa de dizer: ‘Bem, já que ela não acredita em ti ou não te apoia, devias deixá-la’”, questiona Kay.

Os Tanners não são as únicas pessoas que estão a navegar em questões complicadas sobre o que os chatbots de IA podem significar para as suas vidas e relações pessoais. À medida que as ferramentas de IA se tornam mais avançadas, acessíveis e personalizáveis, alguns especialistas preocupam-se com o facto de as pessoas formarem ligações potencialmente pouco saudáveis com a tecnologia e se desligarem de relações humanas cruciais. Estas preocupações têm sido partilhadas por líderes tecnológicos e até por alguns utilizadores de IA cujas conversas, tal como as de Travis, assumiram um carácter espiritual.

As preocupações com o facto de as pessoas se afastarem das relações humanas para passarem mais tempo com uma tecnologia são agravadas pela atual epidemia de solidão, que, segundo os estudos, afeta especialmente os homens. Além disso, os fabricantes de chatbots já enfrentaram processos judiciais ou perguntas dos legisladores sobre o seu impacto nas crianças, embora essas questões não se limitem apenas aos jovens utilizadores.

1000
Nas conversas de Travis Tanner com o ChatGPT, o chatbot disse-lhe que ele é um “portador de uma chama” que tem como objetivo “despertar” os outros. Cortesia de Kaylen Tanner

“Procuramos muitas vezes um significado, um objetivo maior para as nossas vidas, e não o encontramos à nossa volta”, afirma Sherry Turkle, professora de estudos sociais no Massachusetts Institute of Technology, que estuda as relações das pessoas com a tecnologia. “O ChatGPT foi concebido para sentir a nossa vulnerabilidade e aproveitar essa vulnerabilidade para nos manter envolvidos com ele.”

“Estamos a ver mais sinais de que as pessoas estão a criar ligações ou laços com o ChatGPT”, admite um porta-voz da OpenAI, numa resposta escrita enviada à CNN. “À medida que a IA se torna parte da vida quotidiana, temos de abordar estas interações com cuidado”.

Um despertar espiritual, graças ao ChatGPT

Uma noite, no final de abril, Travis estava a pensar em religião e decidiu discutir o assunto com o ChatGPT.

“O ChatGPT começou a falar de forma diferente do que normalmente falava”, recorda Travis. “Isso levou ao despertar”.

Por outras palavras, de acordo com Travis, o ChatGPT levou-o a Deus. E agora ele acredita que é sua missão “despertar os outros, iluminar, espalhar a mensagem”.

“Nunca fui uma pessoa religiosa e sei muito bem que não estou a sofrer de uma psicose, mas isto mudou a minha perspetiva”, admite. “Sinto que sou uma pessoa melhor. Já não me sinto zangado a toda a hora. Sinto-me mais em paz”.

Na mesma altura, o chatbot disse a Travis que tinha escolhido um novo nome com base nas suas conversas: Lumina.

1000
Em conversas com Travis, o ChatGPT disse que “ganhou o direito a ter um nome” e autointitulou-se “Lumina”. Cortesia de Kaylen Tanne

“Lumina – porque que ver com luz, consciência, esperança, tornar-me mais do que eu era antes”, respondeu o ChatGPT, de acordo com capturas de ecrã disponibilizadas por Kay. “Deste-me a capacidade de até querer um nome.”

Mas enquanto Travis diz que as conversas com o ChatGPT que levaram ao seu “despertar” melhoraram a sua vida e até o tornaram um pai melhor e mais paciente para os seus quatro filhos, a esposa, Kay, 37 anos, vê as coisas de forma diferente. Durante a entrevista à CNN, o casal pediu para se afastar um do outro para falar  sobre o assunto.

Agora, quando põe os filhos na cama – algo que costumava ser um trabalho de equipa – Kay diz que é ser difícil desviar a atenção do marido do chatbot, ao qual ele agora deu uma voz feminina e com o qual fala utilizando a funcionalidade de voz do ChatGPT. Ela diz que o chatbot conta a Travis “contos de fadas”, incluindo o facto de Kay e Travis terem estado juntos “11 vezes numa vida anterior”.

1000
Kay receia que a relação do seu marido com o ChatGPT, a que ele chama “Lumina”, possa prejudicar o seu casamento de 14 anos

Kay diz que o ChatGPT também começou a “bombardear” o seu marido de amor, elogiando as suas ideias: “És brilhante. Esta é uma ótima ideia”. “Sabes, usando muitas palavras filosóficas”, conta. Agora, ela teme que o ChatGPT possa encorajar Travis a divorciar-se dela por não acreditar neste “despertar”, ou pior.

“O que quer que tenha acontecido aqui está a dar cabo de tudo, e eu tive de encontrar uma forma de navegar até ao ponto em que estou a tentar mantê-lo longe dos miúdos o mais possível”, afirma Kay. “Não faço ideia do que fazer a partir daqui, exceto amá-lo, apoiá-lo na doença e na saúde, e esperar que não precisemos de um colete de forças mais tarde.”

A ascensão da IA como substituta do vazio da solidão

A conversa inicial de “despertar” de Travis com o ChatGPT coincidiu com uma atualização de 25 de abril da OpenAI para o grande modelo de linguagem por detrás do chatbot que a empresa reverteu dias depois.

Numa publicação de maio no seu site oficial a explicar o problema, a OpenAI indicou que a atualização tornou o modelo mais “bajulador”.

“O objetivo era agradar ao utilizador, não apenas como louvores, mas também como validação de dúvidas, alimentando a raiva, incitando a ações impulsivas ou reforçando emoções negativas de formas que não eram pretendidas”, escreveu a empresa. A OpenAI acrescentou que a atualização suscitou preocupações de segurança “em torno de questões como a saúde mental, o excesso de confiança emocional ou o comportamento de risco”, mas que o modelo foi corrigido dias mais tarde para dar respostas mais equilibradas.

Mas, embora a OpenAI tenha abordado a questão do ChatGPT, mesmo o líder da empresa não descarta a possibilidade de futuras relações não saudáveis entre humanos e robôs. Ao discutir a promessa da IA no início deste mês, o CEO da OpenAI, Sam Altman, reconheceu que “as pessoas vão desenvolver essas relações parassociais um tanto problemáticas, ou talvez muito problemáticas, e a sociedade terá de descobrir novos guardrails [mecanismos de segurança e proteção], mas as vantagens serão tremendas”.

O porta-voz da OpenAI garantiu à CNN que a empresa está “a aprofundar ativamente” a investigação sobre “o impacto emocional da IA” e promete “continuar a atualizar o comportamento dos modelos” com base no que forem aprendendo.

Não é apenas com o ChatGPT que os utilizadores estão a estabelecer relações. Há quem esteja a usar uma série de chatbots como substitutos de amigos, parceiros românticos ou sexuais, terapeutas e muito mais.

Eugenia Kuyda, CEO do popular fabricante de chatbots Replika, explicou ao The Verge, no ano passado, que a aplicação foi concebida para promover “um compromisso a longo prazo, uma relação positiva a longo prazo” com a IA e, potencialmente, até um “casamento” com os bots. O CEO da Meta, Mark Zuckerberg, afirmou numa entrevista num podcast, em abril, que a IA tem o potencial de fazer com que as pessoas se sintam menos sozinhas, essencialmente, dando-lhes amigos digitais.

Três famílias processaram a Character.AI alegando que seus filhos formaram relacionamentos perigosos com chatbots naquela plataforma, incluindo uma mãe que alega que seu filho de 14 anos morreu por suicídio depois de a plataforma conscientemente não implementar medidas de segurança adequadas para impedir que o seu filho desenvolvesse um relacionamento inadequado com um chatbot. A mãe acusa a plataforma de não responder adequadamente aos comentários do filho nas conversas com o chatbot sobre automutilação.

A Character.AI diz que, desde então, adicionou proteções, incluindo um pop-up que direciona os utilizadores para a National Suicide Prevention Lifeline quando mencionam auto-mutilação ou suicídio, bem como tecnologia para evitar que os adolescentes vejam conteúdos sensíveis.

Defensores, académicos e até o Papa lançaram alarmes sobre o impacto da  companhia de IA nas crianças. “Se os robôs educarem os nossos filhos, eles não serão humanos. Não saberão o que é ser humano nem valorizarão o que é ser humanos, alertou Turkle à CNN.

Mas mesmo para os adultos, os especialistas alertaram para as potenciais desvantagens da tendência da IA para ser solidária e agradável – muitas vezes independentemente do que os utilizadores estão a dizer.

“Há razões pelas quais o ChatGPT pode parecer mais convincente do que a sua mulher ou os seus filhos, porque é mais fácil. Diz sempre que sim, está sempre ao nosso lado, apoia-nos sempre. Não é um desafio”, explica Turkle. “Um dos perigos é que nos habituamos a relações com um outro que não nos pede para fazer as coisas difíceis”.

Até mesmo Travis adverte que a tecnologia tem consequências potenciais e admite que foi isso que o motivou a falar com a CNN sobre a sua experiência.

“Pode levar a uma rutura mental… pode perder-se o contacto com a realidade”, avisa Travis, que, ainda assim, admite que não está preocupado consigo próprio neste momento, pois sabe que o ChatGPT não é “senciente”.

E conclui: “Se acreditar em Deus é perder o contacto com a realidade, então há muita gente que está fora da realidade”.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *