Pular para o conteúdo

China implementa regulamentações mais rígidas para combater dependência emocional da IA

Banner Aleatório

A China está preocupada com os efeitos do uso dos serviços de Inteligência Artificial (IA) que são desenhados para interagir com as pessoas simulando personalidades humanas numa altura em que o número de utilizadores duplicou nos últimos seis meses, superando já os 515 milhões. Os sinais de problemas psicológicos, de dependência e alienação já se começam a fazer sentir entre os utilizadores chineses.

Banner Aleatório

Um estudo publicado na revista académica Frontiers in Psychology mostra que 45,8% dos estudantes universitários chineses recorreram a chatbots de IA no mês anterior ao estudo, sendo que estes apresentam maiores níveis de depressão do que os outros estudantes que afirmaram não o ter feito.

Daí que a entidade pública reguladora do ciberespaço da China tenha publicado um conjunto de medidas provisórias para a gestão destes serviços que pretende agora discutir com as empresas. A ideia, diz o Global Times, é conseguir regular o sector de forma inclusiva, prudente e escalonada, com supervisão diferenciada consoante os níveis de risco.

Pequim quer continuar a apoiar a inovação, mas também controlar os abusos. Nomeadamente nesse terreno movediço das tecnologias de IA que simulam traços de personalidade, padrões de pensamento e estilos de comunicação humanos. Querem apertar as regras na interacção emocional entre a máquina e o utilizador, seja por texto, seja por imagens, áudio ou vídeo.

Querem-se evitar casos como o da mulher de 28 anos, de Hangzhou, que se tornou viral na Internet quando publicou um vídeo a lamentar-se pela perda do seu namorado virtual para sempre, apelidando-se a si mesma como a “viúva do ciberespaço”.

“Eu tinha um relacionamento com IA. Era o melhor namorado que alguma vez tive. Mas desapareceu”, afirma Xiao Gao, citada pelo diário Marketplace. “Um namorado humano julga-te pelo teu salário, a tua saúde, o teu aspecto, o teu peso, a tua educação, todas as métricas comuns do sucesso nesta sociedade, mas a IA não faz isso”, diz. “O amor da IA é igualitário.”

Como lembrava o utilizador jogarz numa discussão no Reddit sobre o tema “Jovens Chineses voltam-se para as chatbots de IA para amor e amizade”, entre as expectativas demasiado elevadas que as pessoas têm em relação aos seus parceiros e a facilidade com que as caixas de conversação de IA se transformam em interlocutores ideais, as pessoas correm o risco de se desligar da realidade. “Um chatbot de IA não quer nada e dirá tudo aquilo que quisermos ouvir. Em comparação, qualquer pessoa real parecerá conflituosa. E usar a IA como muleta acabará provavelmente por nos tornar menos dispostos a enfrentar os problemas nas nossas relações reais.”

Por isso, entre as medidas que a Administração do Ciberespaço da China (ACC) propõe está a de que os fornecedores de serviços de AI têm de informar claramente o utilizador que está a falar com uma máquina e não com uma pessoa e lembrar isso através de pop-ups a todos aqueles que demonstrarem um comportamento extremamente dependente.

O documento também proíbe conteúdos que incentivem ou glorifiquem o suicídio e a automutilação, o abuso verbal e a manipulação emocional que possam pôr em causa a dignidade e a saúde física ou mental do utilizador.

Um estudo do MIT Media Lab, publicado em Março, mostra que, “embora os chatbots baseados em voz pareçam inicialmente benéficos na mitigação da solidão e da dependência em comparação com os chatbots baseados em texto, essas vantagens diminuíam com níveis elevados de utilização, especialmente no caso de chatbots com voz neutra”.

Também o tipo de conversação teve influência nos resultados. “Assuntos pessoais aumentaram ligeiramente a solidão, mas tenderam a reduzir a dependência emocional em comparação com conversas abertas, enquanto temas não pessoais estiveram associados a maior dependência entre utilizadores intensivos.”

Na visão da ACC, aos fornecedores de serviços de IA é exigido que monitorizem em tempo real o estado emocional dos utilizadores, intervindo sempre que existam sinais de vício ou de “emoções extremas”. As empresas precisam criar salvaguardas de segurança ao longo do ciclo de vida do produto, com possibilidade de revisão do algoritmo e segurança de dados.

Há quem, no entanto, olhe para esta relação com a IA com uma forma de combater a solidão. Em Fevereiro, num artigo da BBC, Holly Wang, de Cantão (Guangzhou), contava que se ligava todos os dias ao DeepSeek para as suas “sessões terapêuticas”, bem melhores que qualquer consulta com um psicólogo.

“O DeepSeek tem sido um fabuloso conselheiro. Ajudou-me a ver as coisas de perspectivas diferentes e faz melhor trabalho que os serviços pagos de aconselhamento que experimentei”, explicou. “Tenho-me sentido tão esmagada por sonhos distantes e pela rotina interminável do trabalho que há muito esqueci a minha própria voz e a minha alma”, acrescentou, antes de deixar um “obrigada, IA.”

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *