Pular para o conteúdo

Funcionários compartilham Dados comerciais confidenciais sem perceber

Três em cada quatro funcionários admitem usar ferramentas de Inteligência Artificial no trabalho. Embora a Inteligência Artificial possa oferecer muitos benefícios à produtividade e eficiência de um funcionário, as preocupações estão aumentando sobre o tipo de Dados inseridos nas ferramentas de IA no trabalho. 1

A empresa de SaaS de segurança de aplicativos , Indusface , ficou intrigada em se aprofundar mais nisso e descobrir os Dados mais comuns que os profissionais estão compartilhando com IA e as implicações que isso pode ter para indivíduos e empresas.

11% dos Dados que os funcionários colam no ChatGPT são estritamente confidenciais, como estratégias comerciais internas, sem entender completamente como a plataforma processa esses Dados  

Os principais Dados pessoais que os profissionais mais compartilham com a IA e as possíveis reações adversas

Arquivos e documentos relacionados ao trabalho
Uma das categorias mais comuns de informações compartilhadas com IA são arquivos e documentos relacionados ao trabalho . Mais de 80% dos profissionais em empresas da Fortune 500 usam ferramentas de IA, como ChatGPT, para auxiliar em tarefas como análise de números, refinamento de e-mails, relatórios e apresentações. 2

No entanto, 11% dos Dados que os funcionários colam no ChatGPT são estritamente confidenciais, como estratégias comerciais internas, sem entender completamente como a plataforma processa esses Dados. Portanto, é recomendável remover Dados confidenciais ao inserir comandos de pesquisa em ferramentas de IA. 3

 Dados pessoais
Detalhes pessoais como nomes, endereços e informações de contato são frequentemente compartilhados com ferramentas de IA diariamente. Surpreendentemente, 30% dos profissionais acreditam que proteger seus Dados pessoais não vale o esforço, indicando um crescente senso de desamparo e falta de treinamento.

O acesso ao treinamento em segurança cibernética aumentou pela primeira vez em quatro anos, com 1 em cada 3 ( 33% ) participantes usando-o e 11% tendo acesso, mas não utilizando-o. Para que as empresas permaneçam seguras contra ameaças à segurança cibernética, é importante realizar treinamento em segurança cibernética para a equipe, aprimorando suas habilidades no uso seguro da IA. 1

Informações do cliente ou funcionário
As informações do cliente, incluindo Dados que podem estar sujeitos a requisitos regulatórios ou de confidencialidade, geralmente são compartilhadas com a IA por profissionais.

Para proprietários ou gerentes de empresas que usam IA para obter informações sobre funcionários, é importante ter cuidado ao compartilhar detalhes de contas bancárias, folhas de pagamento, endereços ou até mesmo avaliações de desempenho, pois isso pode violar a política do contrato e levar à vulnerabilidade da organização devido a possíveis ações legais caso Dados confidenciais dos funcionários vazem.

Informações financeiras
Large language models (LLMs) são frequentemente usados ​​e são modelos de IA cruciais para muitas aplicações de IA Generativas, como assistentes virtuais e chatbots de IA conversacional . Isso pode frequentemente ser usado por meio de modelos Open AI, Google Cloud AI e muitos mais.

No entanto, os Dados que ajudam a treinar LLMs geralmente são obtidos por rastreadores da web que raspam e coletam informações de sites. Esses dados geralmente são obtidos sem o consentimento dos usuários e podem conter informações pessoalmente identificáveis ​​(PII).

Outros sistemas de IA que oferecem experiências personalizadas ao cliente também podem coletar Dados pessoais. É recomendável garantir que os dispositivos usados ​​ao interagir com LLMs sejam seguros, com proteção antivírus completa para salvaguardar as informações antes que elas sejam compartilhadas, especialmente ao lidar com informações financeiras comerciais confidenciais.

Senhas e credenciais de acesso
Os modelos de IA são projetados para fornecer insights, mas não para proteger senhas com segurança, e podem resultar em exposição não intencional, especialmente se a plataforma não tiver medidas rígidas de privacidade e segurança.

Evite reutilizar senhas que podem ter sido usadas em vários sites, pois isso pode levar a uma violação em várias contas. A importância de usar senhas fortes com vários símbolos e números nunca foi tão importante, além de ativar a identificação de dois fatores para proteger contas e mitigar o risco de ataques cibernéticos.

Bases de código da empresa e propriedade intelectual (PI)
Desenvolvedores e funcionários recorrem cada vez mais à IA para assistência de codificação, no entanto, compartilhar bases de código da empresa pode representar um grande risco de segurança, pois é a propriedade intelectual principal de um negócio. Se o código-fonte proprietário for colado em plataformas de IA, ele pode ser armazenado, processado ou até mesmo usado para treinar futuros modelos de IA, potencialmente expondo segredos comerciais a entidades externas.

As empresas devem, portanto, implementar políticas rígidas de uso de IA para garantir que o código sensível permaneça protegido e nunca compartilhado externamente . Além disso, usar modelos de IA auto- hospedados ou ferramentas de IA seguras e aprovadas pela empresa pode ajudar a mitigar os riscos de vazamento de propriedade intelectual.

Todos os dados são precisos em janeiro de 2025.

Fontes:
Cybsafe | Relatório Anual de Atitudes e Comportamentos de Segurança Cibernética 2024-2025
Masterofcode | MOCG Picks: 10 estatísticas do ChatGPT que todo líder empresarial deve saber
CyberHaven | 11% dos dados que os funcionários colam no ChatGPT são confidenciais

Você também pode gostar

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *