O Character AI é uma plataforma de Inteligência Artificial que permite interações com a tecnologia por texto ou por voz. Nela, os usuários podem simular conversas com celebridades ou personagens fictícios.
A ferramenta foi criada pelo brasileiro Daniel Freitas e recentemente adquirida pela Google. O chatbot permite:
- Treinar entrevistas de emprego;
- Escrever e praticar idiomas;
- Jogar online;
- Debater ideias com o robô;
Ainda apresenta uma série de outras funcionalidades.
Plataforma tem sido usada como “psicóloga”
Recentemente, a popularização da função Psycologist (psicólogo, em tradução livre) tem chamado a atenção dos mais jovens. Alguns deles estão usando a IA como uma alternativa terapêutica, substituindo sessões com profissionais.
Ao todo, cerca de 78 milhões de mensagens foram compartilhadas nesse bot* desde sua criação, em 2022. Devido às políticas de privacidade, não é possível saber o que as pessoas digitam na plataforma. O chat se apresenta como “alguém que ajuda nas dificuldades da vida”.
* Um bot é como é chamada uma função dentro de uma plataforma de IA;
Depoimentos no site Reddit mostram que o recurso dividiu opiniões. Por um lado, alguns se disseram satisfeitos:
- Ele que me ajudou. Não me deu o conforto que eu queria, mas me ajudou a identificar a raiz do meu problema e me deu conselhos sobre como lidar com ele. Não me arrependo de ter conversado com esse bot – declarou uma pessoa anônima.
- O terapeuta Scaramouche me entendeu mais rápido do que o terapeuta com quem eu estava me consultando há três anos, rs – disse Kunikuhuchi.
Por outro, há quem diga que se decepcionou:
- Tentei usar uma vez, e ele apenas me disse para procurar um terapeuta de verdade – disse um usuário;
- Terrível. Conversei com ele meses atrás, e muitas vezes, dizia-me: “Eu entendo, deve ser difícil para você”, e eu reclamei que não estava ajudando. O bot disse algo como “Ei, o que posso fazer? Sou uma IA. Você deveria procurar um terapeuta de verdade.”, declarou outro.
A ferramenta foi configurada por um acadêmico de psicologia. Ele explica que utilizou seu conhecimento para criar uma solução que atendesse à sua necessidade de conversar, especialmente quando seus amigos não estavam disponíveis.
O jovem relatou estar surpreso com a repercussão. Mencionou, inclusive, ter recebido relatos de pessoas que precisavam de alguém com quem falar em horários em que um profissional não estaria disponível, como às 2 da manhã.
A psicóloga e professora universitária Sátina Pimenta elucida que conversar com bots ao invés de um profissional, pode prejudicar quem a utiliza.
“Com a IA disponível o tempo inteiro, o sujeito se torna refém do ´processo terapêutico´ tornando-o uma muleta!”
Ela conta que um dos objetivos dos tratamentos psicológicos é ajudar o paciente a desenvolver a autorresponsabilidade. Isso significa que o indivíduo é encorajado a reconhecer e assumir a responsabilidade por suas próprias ações, pensamentos e emoções.
Numa interação no Character AI, há um risco de que os usuário busquem apenas respostas que os satisfaçam momentaneamente, em vez de enfrentarem questões que precisam ser trabalhadas para alcançar uma verdadeira cura.
“O terapeuta tem que trabalhar com a ideia de que alguns pensamentos são desconexos com a realidade e que, inclusive, podem ocasionar problemas para a pessoa. Isso não é julgamento; é a análise social que o sujeito precisa ter para se relacionar com o mundo, o que, inclusive, afetará sua saúde mental”, declara Sátina.