Pular para o conteúdo

Cinco coisas que não deve partilhar no ChatGPT

Banner Aleatório

Nos últimos meses, o ChatGPT tornou-se uma das ferramentas populares para responder a perguntas e auxiliar em vários assuntos do dia a dia. Embora esta ferramenta de IA possa ser muito útil, alguns investigadores alertam que nem tudo deve ser partilhado com ela.

Banner Aleatório
PUBLICIDADE

O ChatGPT, produto da empresa da Open AI, garante a muitos utilizadores um assistente digital que pode escrever texto, rever código, analisar resultados médicos ou mesmo ajudar a colocar uma criança a dormir. Mas, por trás destas respostas íntimas estão algoritmos que aprendem algo a cada interação.

Ao longo dos anos, o ChatGPT aprendeu que, por exemplo, adora ovos de galinha e tem dores nas costas. Estes são apenas alguns detalhes uma vez que esta ferramente de IA memorizou muito mais detalhes pessoais desde que apareceu.

Na verdade, ferramentas como o ChatGPT visam personalizar respostas e melhorar o seu próprio desempenho futuro, memorizando muitos detalhes individuais, desde a condição física dos utilizadores até alguns assuntos mais particulares.

Posto isto, é importante saber o que não deve ser partilhado e porquê.

De acordo com alertas de especialistas, existem cinco tipos de informação que não devem ser inseridas em conversas com chatbots, uma vez que podem ser mal utilizadas em processos de modelos de treino, erros de sistema ou mesmo em ataques cibernéticos.

Esta informação inclui:

  1. Informação de identidade: como número da certidão de nascimento, certidão, passaporte, morada, número de telefone e data de nascimento. Alguns chatbots tentam censurar estes itens, mas não existem garantias sobre a fiabilidade do processo.
  2. Resultados de ensaios médicos: os chatbots não estão sujeitos a leis rígidas de proteção de dados de saúde. Se necessário, carregue apenas os resultados dos testes sem informação de identidade.
  3. Informação financeira: tais como números bancários ou de contas de investimento, que podem ter consequências graves se divulgados involuntariamente.
  4. Informações empresariais confidenciais: muitos utilizadores utilizam chatbots para escrever e-mails ou verificar códigos enquanto trabalham, mas isso pode revelar informações comerciais ou códigos confidenciais.
  5. Palavras-passe e nomes de utilizador: os chatbots não são um espaço seguro para armazenar palavras-passe ou cofres digitais. Esta informação deve ser conservada no software de gestão de palavras-passe.

Grandes empresas como a OpenAI, a Google e a Microsoft utilizam as conversas dos utilizadores para melhorar os seus modelos. Embora os utilizadores possam ativar a opção de não utilizar dados para formação em definições, muitas pessoas desconhecem esta capacidade.

Formas de manter a privacidade

Os especialistas em cibersegurança sugerem que tome as seguintes medidas para proteger a sua privacidade, tais como:

Utilizar o Modo de Chat Temporário: a funcionalidade “Chat Temporário” funciona como o modo de navegação anónima de um browser, impedindo que as conversas sejam guardadas e utilizadas em modelos de treino.

Eliminar conversas: pode eliminá-las do histórico após o término de cada conversa e certificar-se de que a informação é completamente apagada após 30 dias.

Utilizar ferramentas de anonimização como a ferramenta a “DuckDuckGo” (Duck.ai) que envia mensagens anonimamente para modelos de IA; embora tenha possibilidades limitadas em comparação com chatbots completos.

Em última análise, cabe a cada um de nós decidir o que partilhar e o que manter privado. Os chatbots são concebidos para manter as conversas a decorrer, mas a autoridade final ainda está nas suas mãos.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *