A OpenAI enfrenta preocupações de que os usuários possam desenvolver um vício emocional no novo recurso de voz do ChatGPT. Apesar da sua disponibilidade limitada na Europa, já são observados problemas como ligações emocionais e manipulação da voz humana. O recurso funciona com limitações e a memória não está disponível, o que afeta a experiência do usuário.
A OpenAI introduziu recentemente um novo recurso de fala para ChatGPT que permite conversas em tempo real com entonação e capacidade de resposta quase humanas. À primeira vista, é uma tecnologia fascinante que está um passo mais próxima dos cenários de filmes como “Ela”. No entanto, este avanço tecnológico também provou estar repleto de riscos.
Na última análise publicada pela empresa, os pesquisadores descobriram que alguns usuários já estão emocionalmente ligados aos seus assistentes de voz. Este fenômeno, denominado “antropomorfização”, significa que as pessoas atribuem qualidades humanas à tecnologia, o que pode levar a uma profunda confiança e dependência emocional dela.
Embora esse novo recurso traga enormes oportunidades de interação, ele também abre a porta para manipulação e uso indevido. Testes de segurança mostraram que a entrada de voz também pode servir para fazer o “jailbreak” do sistema, o que permite ao modelo ultrapassar seus limites de segurança e oferecer respostas que não são pretendidas. Além disso, o recurso é particularmente sensível a sons ambientes, que podem causar comportamentos imprevisíveis, como imitar a própria voz do usuário.
Os utilizadores europeus ainda não têm esta funcionalidade, uma vez que a OpenAI está a implementá-la gradualmente e apenas para um número limitado de utilizadores, principalmente nos EUA. Além disso, o recurso funciona com certas limitações por enquanto e a memória não está incluída, o que significa que o sistema não consegue se lembrar de conversas anteriores. É claro que isso afeta a experiência geral do usuário, que é um pouco reduzida em comparação com usuários de outras regiões.
Apesar de todos estes desafios, a OpenAI insiste que o desenvolvimento da função de fala é um passo importante para o futuro, mas ao mesmo tempo aponta para a necessidade de cautela e de mais investigação para prevenir possíveis consequências negativas desta tecnologia.
Por enquanto, permanece a questão de como os utilizadores reagirão a estas inovações e quais serão as consequências a longo prazo desta tecnologia emocional. No entanto, com base nas pesquisas atuais e nos testes de segurança, fica claro que a OpenAI precisará continuar monitorando de perto o desenvolvimento e o uso desse recurso.