Dependência emocional? OpenAI, criadora do ChatGPT, alerta para risco com novo assistente de voz

A OpenAI, desenvolvedora do ChatGPT, responsável pela popularização da inteligência artificial (IA) generativa desde a virada de 2022 para 2023, está preocupada com a possibilidade de que o uso da voz artificial da ferramenta cause dependência emocional nos usuários e prejudique relacionamentos sociais, conforme um relatório de segurança divulgado esta semana.

O documento — parte do compromisso de “construir a IA com segurança”, diz a empresa — descreve testes internos e com pequenos grupos de usuários selecionados. Suas conclusões reacendem as comparações da nova voz artificial do ChatGPT com o filme “Ela”, de 2013.

Em maio, quando do lançamento do ChatGPT-4o, a versão da ferramenta de IA generativa que traz a voz artificial, as comparações tinham sido sugeridas por uma postagem do CEO da OpenAI, Sam Altman, e por uma polêmica entre a empresa e a atriz americana Scarlett Johansson, que interpreta a voz de uma ferramenta de IA no filme, dirigido pelo cineasta americano Spike Jonze.

No filme de ficção científica, que levou o prêmio de melhor roteiro original no Oscar de 2014, o solitário Theodore, interpretado pelo ator Joaquin Phoenix, se apaixona pela voz feminina da ferramenta fictícia de IA.

Na vida real, o relatório da OpenAI revela que os testes iniciais conduzidos pela empresa mostraram que “os usuários usavam uma linguagem que poderia indicar a formação de conexões” com a voz artificial.

“Embora esses casos pareçam benignos, eles sinalizam a necessidade de investigação contínua sobre como esses efeitos podem se manifestar ao longo de períodos mais longos”, diz o relatório, indicando para a necessidade de testes mais amplos.

Em seguida, o relatório diz que “a socialização semelhante à humana com um modelo de IA pode gerar externalidades que afetam as interações humanas”. Quase que repetindo o enredo do filme de Jonze, o documento da OpenAI alerta que “os usuários podem formar relações sociais com a IA, reduzindo a necessidade de interação humana — potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relações saudáveis”.

“A interação prolongada com o modelo pode influenciar normas sociais. Por exemplo, nossos modelos são deferentes, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para uma IA, seria anti-normativo em interações humanas”, diz o relatório.

Após o anúncio do ChatGPT-4o em maio, além da polêmica com Scarlett Johansson — que criticou publicamente a OpenAI, por considerar uma das vozes do novo assistente semelhante à dela —, questões de segurança foram citadas para justificar atrasos no lançamento efetivo para os usuários.

No relatório, a empresa destaca que “a capacidade de completar tarefas para o usuário, ao mesmo tempo em que armazena e ‘lembra’ detalhes-chave e os utiliza na conversa, cria tanto uma experiência de produto atraente quanto o potencial para dependência excessiva”.

Por isso, a OpenAI garante que pretende “estudar mais a fundo o potencial para dependência emocional e as formas como a integração mais profunda das muitas funcionalidades de nosso modelo e sistemas com a modalidade de áudio pode influenciar o comportamento”.

Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima