A OpenAI, desenvolvedora do ChatGPT, responsável pela popularização da inteligência artificial (IA) generativa desde a virada de 2022 para 2023, está preocupada com a possibilidade de que o uso da voz artificial da ferramenta cause dependência emocional nos usuários e prejudique relacionamentos sociais, conforme um relatório de segurança divulgado esta semana.
O documento — parte do compromisso de “construir a IA com segurança”, diz a empresa — descreve testes internos e com pequenos grupos de usuários selecionados. Suas conclusões reacendem as comparações da nova voz artificial do ChatGPT com o filme “Ela”, de 2013.
Em maio, quando do lançamento do ChatGPT-4o, a versão da ferramenta de IA generativa que traz a voz artificial, as comparações tinham sido sugeridas por uma postagem do CEO da OpenAI, Sam Altman, e por uma polêmica entre a empresa e a atriz americana Scarlett Johansson, que interpreta a voz de uma ferramenta de IA no filme, dirigido pelo cineasta americano Spike Jonze.
Vida imita a arte
No filme de ficção científica, que levou o prêmio de melhor roteiro original no Oscar de 2014, o solitário Theodore, interpretado pelo ator Joaquin Phoenix, se apaixona pela voz feminina da ferramenta fictícia de IA.
Na vida real, o relatório da OpenAI revela que os testes iniciais conduzidos pela empresa mostraram que “os usuários usavam uma linguagem que poderia indicar a formação de conexões” com a voz artificial.
“Embora esses casos pareçam benignos, eles sinalizam a necessidade de investigação contínua sobre como esses efeitos podem se manifestar ao longo de períodos mais longos”, diz o relatório, indicando para a necessidade de testes mais amplos.
Menos interação humana
Em seguida, o relatório diz que “a socialização semelhante à humana com um modelo de IA pode gerar externalidades que afetam as interações humanas”.
Quase que repetindo o enredo do filme de Jonze, o documento da OpenAI alerta que “os usuários podem formar relações sociais com a IA, reduzindo a necessidade de interação humana — potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relações saudáveis”.
“A interação prolongada com o modelo pode influenciar normas sociais. Por exemplo, nossos modelos são deferentes, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para uma IA, seria anti-normativo em interações humanas”, diz o relatório.
Após o anúncio do ChatGPT-4o em maio, além da polêmica com Scarlett Johansson — que criticou publicamente a OpenAI, por considerar uma das vozes do novo assistente semelhante à dela —, questões de segurança foram citadas para justificar atrasos no lançamento efetivo para os usuários.
No relatório, a empresa destaca que “a capacidade de completar tarefas para o usuário, ao mesmo tempo em que armazena e ‘lembra’ detalhes-chave e os utiliza na conversa, cria tanto uma experiência de produto atraente quanto o potencial para dependência excessiva”.
Por isso, a OpenAI garante que pretende “estudar mais a fundo o potencial para dependência emocional e as formas como a integração mais profunda das muitas funcionalidades de nosso modelo e sistemas com a modalidade de áudio pode influenciar o comportamento”.
Veja também
NEGÓCIOSCiel Tower: veja imagens do hotel mais alto do mundo que está sendo construído em Dubai
turismoGoverno quer atrair 8,1 milhões de turistas internacionais até 2027