ChatGPT por voz pode causar dependência emocional em usuários, alerta OpenAI

Risco pode ser bom para solitários, mas ruim para quem tem relações saudáveis, diz empresa

A startup americana OpenAI, desenvolvedora dona do ChatGPT, afirmou, em documento publicado nesta sexta-feira, 9, que o ChatGPT-4o, modelo mais avançado da companhia e revelado em maio, pode tornar usuários apegados emocionalmente à inteligência artificial quando utilizada no modo de voz, no qual comandos falados são realizados – similar à Alexa, da Amazon, e a à Siri, da Apple.

Testes internos da OpenAI afirmam “usuários podem formar relacionamentos sociais com a inteligência artificial”, diz o documento. Ainda, a IA chegou a reduzir a “necessidade de interações humanas” nas pessoas analisadas, com efeitos danosos para pessoas com relacionamentos saudáveis, mas benéfico para pessoas solitárias.

O documento informa também que os modelos de IA da OpenAI provaram que podem se submeter a comando de humanos, sem tentar romper o controle nem enganar indivíduos ou nem desenhar planos catastróficos.

O ChatGPT-4o consegue receber comandos e gerar respostas em formatos de texto, áudio, vídeo e imagens. A função de conversas por voz entrou no ar em julho, com foco em tornar o diálogo mais realista, natural e menos robótico para o usuário.

Em maio, quando o chatbot foi revelado, a OpenAI foi alvo de críticas por utilizar no robô uma voz similar à da atriz Scarlett Johansson (conhecida pelo filme Ela, de 2013, onde interpreta uma assistente digital inspirada na Siri), que, meses antes, havia recusado o pedido de dublar a IA. Após receber comentários negativos da própria intérprete, a companhia recuou e alterou a voz usada pela IA.

Os documentos publicados pela startup apontam também que o modo com voz pode funcionar de forma errada em resposta a barulhos aleatórios. Em outro caso, os testes indicaram que o ChatGPT adotou uma voz semelhante à do interlocutor. Ainda, foi constatado que o chatbot poderia ser mais efetivo ao convencer pessoas de determinado ponto de vista em comparação aos demais.

Também foi descoberto que, durante os testes, o ChatGPT poderia reagir de forma inapropriada, revelando comportamento erótico, violento ou até neurótico em resposta aos usuários.

Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima