Pular para o conteúdo

Inversão de papéis: e se os humanos começarem a falar como as máquinas?

Banner Aleatório

Rebecca Heilweil

4 minutos de leitura

A inteligência artificial tem um estilo de escrita – ou, pelo menos, um estilo atribuído a ela. Ferramentas como ChatGPT e Claude costumam se comunicar com uma tendência ao formalismo.

Banner Aleatório

Os chatbots são formais, às vezes equilibrados ou elogiosos demais. Há uma falta evidente de personalidade e nenhuma opinião realmente própria.

Segundo a Grammarly, a linguagem da IA tende a evocar “frases repetitivas” e um “tom robótico”. Já há até palavras marcadas como jargões da IA, como “crucial”, “aprofundar” ou “ressaltar” – o tipo de termo encontrado em livros para quem vai começar a escrever seus primeiros trabalhos escolares.

Na era da IA, essas palavras de apoio se tornaram verbata non grata (palavras indesejáveis). Algumas pessoas já tentam evitar esses termos porque soam como um bot medíocre (Deus nos livre).

Mas o problema é maior do que simplesmente soar como uma IA. A fala humana sempre foi um sistema natural de produção de neologismos; as pessoas são organicamente criativas ao falar e escrever.

Mas, à medida que passamos a nos comunicar mais com chatbots e a depender de agentes de IA para destrinchar conceitos, resumir relatórios e sintetizar buscas na internet, estamos filtrando uma enorme variedade de conteúdo pela estrutura rígida e o vocabulário limitado dos modelos de linguagem.

A IA não é uma nova plataforma para nossos pensamentos, é uma nova forma de sintetizá-los.

Isso já está mudando nossa comunicação. Pesquisadores sugerem que modelos de assistência à redação baseados em IA podem reduzir a diversidade da escrita humana, encolhendo o escopo do vocabulário coletivo.

“É possível que a IA esteja, literalmente, colocando palavras na nossa boca, já que a exposição repetida leva as pessoas a internalizar e reutilizar palavras de ordem que talvez não escolhessem naturalmente”, aponta Tom Juzek, professor da Universidade Estadual da Flórida.

Junto com uma equipe de colegas, ele identificou recentemente uma lista de termos típicos da “linguagem da IA”, incluindo termos como “complexo/ elaborado”, “estrategicamente” ou “angariar”.

SERÁ POSSÍVEL CONTER A INFILTRAÇÃO?

Podemos estancar o vazamento? As empresas de tecnologia sabem que a IA padronizada nem sempre é atraente. E estão cada vez mais prometendo personalização e adaptação que podem moldar esses bots de acordo com a vontade e preferência do usuário.

“Você pode dizer ao ChatGPT quais características quer que ele tenha, como deseja que ele fale com você e quais regras deve seguir”, explicou a OpenAI no lançamento de um recurso que permite escolher traços e personalidades para os bots.

“Se você é um cientista usando o ChatGPT para pesquisa, pode querer que ele interaja como um assistente de laboratório. Se cuida de um familiar idoso e precisa de dicas ou ideias de companhia, pode preferir que o ChatGPT adote um tom acolhedor.”

executivo segura um tablet em frente ao rosto
Crédito: Freepik

Em uma tentativa talvez inútil de me proteger da “linguagem de IA”, pedi ao meu ChatGPT para usar um vocabulário mais amplo. “Pense como alguém que leu muito”, eu disse. “Tente usar palavras novas o tempo todo! Quero que você varie constantemente seu vocabulário”.

Também proibi o chatbot de usar as expressões identificadas na pesquisa de Juzek. Até agora, o ChatGPT parece ter melhorado. Eu acho, pelo menos. Está evitando as palavras banidas e parece se esforçar para se comunicar de maneira menos esquemática, buscando verbos que reflitam melhor compreensão do assunto.

“Pedir ao seu assistente que evite palavras de ordem provavelmente vai fazer com que sua escrita pareça menos artificial para outros humanos e reduz a chance de alguém usar um detector”, diz Juzek. “Quanto ao impacto maior – se a IA está tornando a linguagem mais homogênea, ou se a está nivelando por baixo – acho que isso ainda está em julgamento.”

O FUTURO DA “LINGUAGEM DE IA”

Há quem acredite que outra abordagem poderia fazer a IA parecer um pouco menos mecânica. Nathan Lambert escreveu na newsletter Interconnects que os modelos de hoje não são treinados para serem bons escritores. Eles tentam atender todo mundo e tendem a ser sucintos e neutros.

“O próximo passo seria abordar a questão de os modelos não serem treinados com experiências suficientemente específicas”, afirma Lambert. “O objetivo deveria ser um modelo que conseguisse produzir textos em qualquer área com clareza, força e capacidade de entreter.”

a exposição repetida à IA leva as pessoas a reutilizarem palavras que talvez não escolhessem naturalmente.

Mas ainda teremos de esperar por essa tecnologia. Por enquanto, não há como usar a tecnologia para sair do dilema criado por ela mesma. O receio é que, à medida que nos comunicamos cada vez mais com a IA, acabemos empobrecendo a linguagem no processo.

Claro, essa homogeneização não é nova. Livros, rádio e televisão, cada qual em sua época, tiveram alcance transnacional e criaram evoluções linguísticas globais. As redes sociais criaram gírias universais.

Mas a IA é diferente. Embora seja uma tecnologia nova, não é uma nova plataforma para nossos pensamentos – é uma nova forma de sintetizá-los.

Faz sentido: grandes modelos de linguagem são construídos consolidando enormes volumes de informação em modelos de raciocínio que se comunicam como um “cidadão digital médio”. Enquanto isso, seguimos tentando ser nós mesmos.


Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *