Três em cada quatro funcionários admitem usar ferramentas de Inteligência Artificial no trabalho. Embora a Inteligência Artificial possa oferecer muitos benefícios à produtividade e eficiência de um funcionário, as preocupações estão aumentando sobre o tipo de Dados inseridos nas ferramentas de IA no trabalho. 1
A empresa de SaaS de segurança de aplicativos , Indusface , ficou intrigada em se aprofundar mais nisso e descobrir os Dados mais comuns que os profissionais estão compartilhando com IA e as implicações que isso pode ter para indivíduos e empresas.
11% dos Dados que os funcionários colam no ChatGPT são estritamente confidenciais, como estratégias comerciais internas, sem entender completamente como a plataforma processa esses Dados
Os principais Dados pessoais que os profissionais mais compartilham com a IA e as possíveis reações adversas
Arquivos e documentos relacionados ao trabalho
Uma das categorias mais comuns de informações compartilhadas com IA são arquivos e documentos relacionados ao trabalho . Mais de 80% dos profissionais em empresas da Fortune 500 usam ferramentas de IA, como ChatGPT, para auxiliar em tarefas como análise de números, refinamento de e-mails, relatórios e apresentações. 2
No entanto, 11% dos Dados que os funcionários colam no ChatGPT são estritamente confidenciais, como estratégias comerciais internas, sem entender completamente como a plataforma processa esses Dados. Portanto, é recomendável remover Dados confidenciais ao inserir comandos de pesquisa em ferramentas de IA. 3
Dados pessoais
Detalhes pessoais como nomes, endereços e informações de contato são frequentemente compartilhados com ferramentas de IA diariamente. Surpreendentemente, 30% dos profissionais acreditam que proteger seus Dados pessoais não vale o esforço, indicando um crescente senso de desamparo e falta de treinamento.
O acesso ao treinamento em segurança cibernética aumentou pela primeira vez em quatro anos, com 1 em cada 3 ( 33% ) participantes usando-o e 11% tendo acesso, mas não utilizando-o. Para que as empresas permaneçam seguras contra ameaças à segurança cibernética, é importante realizar treinamento em segurança cibernética para a equipe, aprimorando suas habilidades no uso seguro da IA. 1
Informações do cliente ou funcionário
As informações do cliente, incluindo Dados que podem estar sujeitos a requisitos regulatórios ou de confidencialidade, geralmente são compartilhadas com a IA por profissionais.
Para proprietários ou gerentes de empresas que usam IA para obter informações sobre funcionários, é importante ter cuidado ao compartilhar detalhes de contas bancárias, folhas de pagamento, endereços ou até mesmo avaliações de desempenho, pois isso pode violar a política do contrato e levar à vulnerabilidade da organização devido a possíveis ações legais caso Dados confidenciais dos funcionários vazem.
Informações financeiras
Large language models (LLMs) são frequentemente usados e são modelos de IA cruciais para muitas aplicações de IA Generativas, como assistentes virtuais e chatbots de IA conversacional . Isso pode frequentemente ser usado por meio de modelos Open AI, Google Cloud AI e muitos mais.
No entanto, os Dados que ajudam a treinar LLMs geralmente são obtidos por rastreadores da web que raspam e coletam informações de sites. Esses dados geralmente são obtidos sem o consentimento dos usuários e podem conter informações pessoalmente identificáveis (PII).
Outros sistemas de IA que oferecem experiências personalizadas ao cliente também podem coletar Dados pessoais. É recomendável garantir que os dispositivos usados ao interagir com LLMs sejam seguros, com proteção antivírus completa para salvaguardar as informações antes que elas sejam compartilhadas, especialmente ao lidar com informações financeiras comerciais confidenciais.
Senhas e credenciais de acesso
Os modelos de IA são projetados para fornecer insights, mas não para proteger senhas com segurança, e podem resultar em exposição não intencional, especialmente se a plataforma não tiver medidas rígidas de privacidade e segurança.
Evite reutilizar senhas que podem ter sido usadas em vários sites, pois isso pode levar a uma violação em várias contas. A importância de usar senhas fortes com vários símbolos e números nunca foi tão importante, além de ativar a identificação de dois fatores para proteger contas e mitigar o risco de ataques cibernéticos.
Bases de código da empresa e propriedade intelectual (PI)
Desenvolvedores e funcionários recorrem cada vez mais à IA para assistência de codificação, no entanto, compartilhar bases de código da empresa pode representar um grande risco de segurança, pois é a propriedade intelectual principal de um negócio. Se o código-fonte proprietário for colado em plataformas de IA, ele pode ser armazenado, processado ou até mesmo usado para treinar futuros modelos de IA, potencialmente expondo segredos comerciais a entidades externas.
As empresas devem, portanto, implementar políticas rígidas de uso de IA para garantir que o código sensível permaneça protegido e nunca compartilhado externamente . Além disso, usar modelos de IA auto- hospedados ou ferramentas de IA seguras e aprovadas pela empresa pode ajudar a mitigar os riscos de vazamento de propriedade intelectual.
Todos os dados são precisos em janeiro de 2025.
Fontes:
Cybsafe | Relatório Anual de Atitudes e Comportamentos de Segurança Cibernética 2024-2025
Masterofcode | MOCG Picks: 10 estatísticas do ChatGPT que todo líder empresarial deve saber
CyberHaven | 11% dos dados que os funcionários colam no ChatGPT são confidenciais
Você também pode gostar