Dependência emocional? OpenAI, criadora do ChatGPT, alerta para risco com novo assistente de voz

A OpenAI, desenvolvedora do ChatGPT, responsável pela popularização da inteligência artificial (IA) generativa desde a virada de 2022 para 2023, está preocupada com a possibilidade de que o uso da voz artificial da ferramenta cause dependência emocional nos usuários e prejudique relacionamentos sociais, conforme um relatório de segurança divulgado esta semana.


O documento — parte do compromisso de “construir a IA com segurança”, diz a empresa — descreve testes internos e com pequenos grupos de usuários selecionados. Suas conclusões reacendem as comparações da nova voz artificial do ChatGPT com o filme “Ela”, de 2013.


Em maio, quando do lançamento do ChatGPT-4o, a versão da ferramenta de IA generativa que traz a voz artificial, as comparações tinham sido sugeridas por uma postagem do CEO da OpenAI, Sam Altman, e por uma polêmica entre a empresa e a atriz americana Scarlett Johansson, que interpreta a voz de uma ferramenta de IA no filme, dirigido pelo cineasta americano Spike Jonze.

 




Vida imita a arte

No filme de ficção científica, que levou o prêmio de melhor roteiro original no Oscar de 2014, o solitário Theodore, interpretado pelo ator Joaquin Phoenix, se apaixona pela voz feminina da ferramenta fictícia de IA.


Na vida real, o relatório da OpenAI revela que os testes iniciais conduzidos pela empresa mostraram que “os usuários usavam uma linguagem que poderia indicar a formação de conexões” com a voz artificial.


“Embora esses casos pareçam benignos, eles sinalizam a necessidade de investigação contínua sobre como esses efeitos podem se manifestar ao longo de períodos mais longos”, diz o relatório, indicando para a necessidade de testes mais amplos.


Menos interação humana

Em seguida, o relatório diz que “a socialização semelhante à humana com um modelo de IA pode gerar externalidades que afetam as interações humanas”.

Quase que repetindo o enredo do filme de Jonze, o documento da OpenAI alerta que “os usuários podem formar relações sociais com a IA, reduzindo a necessidade de interação humana — potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relações saudáveis”.


“A interação prolongada com o modelo pode influenciar normas sociais. Por exemplo, nossos modelos são deferentes, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para uma IA, seria anti-normativo em interações humanas”, diz o relatório.


Após o anúncio do ChatGPT-4o em maio, além da polêmica com Scarlett Johansson — que criticou publicamente a OpenAI, por considerar uma das vozes do novo assistente semelhante à dela —, questões de segurança foram citadas para justificar atrasos no lançamento efetivo para os usuários.


No relatório, a empresa destaca que “a capacidade de completar tarefas para o usuário, ao mesmo tempo em que armazena e ‘lembra’ detalhes-chave e os utiliza na conversa, cria tanto uma experiência de produto atraente quanto o potencial para dependência excessiva”.


Por isso, a OpenAI garante que pretende “estudar mais a fundo o potencial para dependência emocional e as formas como a integração mais profunda das muitas funcionalidades de nosso modelo e sistemas com a modalidade de áudio pode influenciar o comportamento”.

Veja também

Ciel Tower: veja imagens do hotel mais alto do mundo que está sendo construído em Dubai

NEGÓCIOS

Ciel Tower: veja imagens do hotel mais alto do mundo que está sendo construído em Dubai

Governo quer atrair 8,1 milhões de turistas internacionais até 2027

turismo

Governo quer atrair 8,1 milhões de turistas internacionais até 2027



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima