Em pleno boom da inteligência artificial (IA), um novo desafio tem tirado o sono de executivos de TI, líderes de compliance e gestores corporativos: o avanço da chamada IA paralela. O termo se refere ao uso, por parte de colaboradores, de ferramentas de inteligência artificial, como o ChatGPT, fora dos sistemas homologados ou aprovados oficialmente pelas empresas. E os números indicam que a prática está longe de ser pontual.
Segundo o relatório CX Trends 2025, da Zendesk, o uso de IA paralela no setor varejista cresceu 169% em um ano. Em segmentos como manufatura e turismo, a disparada é ainda mais acentuada: de 21% para 70% na indústria, e de 25% para 70% em viagens e hospitalidade. Na média, quase metade dos atendentes consultados admite que usa ferramentas de IA sem aval formal da empresa — número que, no ano passado, era de apenas 17%.

Especialistas defendem integração segura de tecnologia e políticas claras em vez de proibição de IAs abertas no ambiente de trabalho. Foto: Summit Art Creations/Adobe Stock
A ascensão desse fenômeno está ligada à popularização dos modelos generativos. “Você recebe um documento de 20 páginas e precisa resumir rapidamente. A tentação é subir o material num sistema como o ChatGPT e pedir um resumo. O problema é: e se esse documento tiver dados confidenciais da empresa? A que riscos você está se expondo?”, questiona Walter Hildebrandi, diretor de tecnologia da Zendesk para a América Latina.
O problema não está no uso da IA em si, mas na forma como ela é aplicada fora de ambientes controlados, expondo empresas a riscos operacionais, legais e de reputação. “O principal risco é a falta de processos educacionais que orientem sobre o uso ético, responsável e em conformidade com as políticas de segurança”, afirma Hildebrandi.
A motivação por trás desse comportamento vai além da curiosidade. Para Fernando Carbone, sócio de serviços de segurança da IBM Consulting, há um claro déficit nos fluxos internos. “Muitas vezes, os colaboradores usam outras ferramentas porque sentem falta de soluções mais rápidas e flexíveis dentro da própria empresa. Eles estão pressionados por produtividade e acabam buscando atalhos por conta própria”, explica.
A comparação com o fenômeno do shadow IT, quando funcionários adotavam sistemas externos à revelia do setor de tecnologia, é inevitável. Mas a IA paralela amplia esse desafio. Diferentemente de uma planilha ou app de produtividade, ferramentas generativas interagem com dados, aprendem com eles e, muitas vezes, os armazenam para fins de reuso. Isso eleva os riscos a um novo patamar.
“O colaborador acredita que não tem problema, que o dado não é tão sensível assim. Mas quem decide o que é confidencial ou não? Se a empresa não estabelecer regras claras, está delegando esse julgamento a cada funcionário”, alerta Hildebrandi.
Riscos e armadilhas da IA sem governança
Sem políticas de governança claras, o uso de IA paralela pode provocar danos significativos. As ameaças vão desde o vazamento de dados sensíveis até a disseminação de informações erradas, viés algorítimo e descumprimento de leis como a Lei Geral de Proteção de Dados (LGPD). Para Carbone, “se dados pessoais forem inseridos em plataformas fora do controle da empresa, o risco de sanções legais e danos à imagem é real”.
Um dos riscos mais mencionados pelos especialistas é a perda de confidencialidade. No exterior, o caso de funcionários da Samsung que subiram código-fonte sigiloso no ChatGPT virou símbolo desse tipo de exposição acidental. Como a política padrão da OpenAI usa as interações dos usuários para treinar seus modelos, informações sensíveis podem se tornar parte do sistema, sem consentimento explícito.
Além disso, há o risco de que as respostas da IA contenham erros ou vieses. Modelos como o ChatGPT são conhecidos por “alucinar” informações — ou seja, gerar dados falsos com aparência convincente. Em um caso notório, dois advogados de Nova York apresentaram citações jurídicas inexistentes em um tribunal, com base em sugestões equivocadas do modelo, e acabaram multados.
“O grande insumo da IA é a informação. Se a fonte de dados não for confiável, você pode tomar decisões corporativas com base em conteúdo impreciso”, alerta Sérgio Pedroso, diretor de comunicação da Zendesk. “E isso vale tanto para ações de marketing quanto para decisões financeiras. É possível sabotar seu próprio negócio usando uma ferramenta mal treinada.”

Uso de ChatGPT no ambiente de trabalho traz risco de vazamento de dados confidenciais Foto: Adobe Stock
Outro problema recorrente é a rastreabilidade. Quando o uso é feito fora do ecossistema corporativo, torna-se quase impossível auditar os dados inseridos, armazenados ou reutilizados. Isso impede que áreas de segurança e governança cumpram seu papel, algo especialmente sensível em setores regulados, como o financeiro, saúde ou telecomunicações.
Mesmo com esses alertas, muitas empresas ainda não têm políticas claras sobre IA. E em diversos casos, os próprios líderes incentivam o uso dessas ferramentas de forma informal, alimentando a confusão. “Há uma cultura de experimentação, o que é positivo, mas sem estrutura, isso se transforma em um terreno fértil para incidentes”, diz Carbone.
O resultado é um quadro paradoxal: empresas que incentivam a inovação, mas falham ao oferecer soluções internas robustas, acabam empurrando seus funcionários para ferramentas externas não autorizadas. A conta, quando chega, pode ser alta.
Como integrar a IA com segurança e transparência
Proibir o uso dessas ferramentas, no entanto, pode ser um tiro no pé. Tanto Hildebrandi quanto Carbone defendem que a proibição pura e simples não funciona. “Quando uma tecnologia facilita a vida das pessoas, elas vão dar um jeito de usá-la. A resposta está em oferecer alternativas seguras, dentro de casa”, diz o executivo da IBM.
Na Zendesk, a estratégia tem sido incorporar IA diretamente nas soluções oferecidas aos clientes. Um exemplo prático: transformar e-mails longos de clientes em resumos automáticos, para que os atendentes possam responder mais rápido. “Assim, evitamos que o profissional copie o conteúdo e cole em plataformas abertas, fora do nosso ecossistema”, explica Hildebrandi.
Além disso, a plataforma permite expandir respostas simples para textos mais formais, adequados ao tom da empresa. A integração da IA à rotina de atendimento, segundo ele, reduz o impulso de buscar soluções paralelas. Mas, mesmo em ambientes controlados, há desafios. “Já vimos casos em que funcionários usavam a IA interna para tarefas que não tinham relação com o atendimento, só porque se sentiam seguros”, conta.
Para lidar com essa demanda crescente, muitas empresas estão optando por contratos corporativos com ferramentas específicas para áreas como marketing, RH ou jurídico. “É melhor oferecer soluções dedicadas por departamento do que deixar cada colaborador usar o que bem entender”, afirma Hildebrandi.
Na IBM, a plataforma Watsonx foi criada com foco em segurança desde a concepção. “Seguimos o princípio do ‘Security by Design’, olhando para três pilares: segurança dos dados, do modelo e do uso”, detalha Carbone. O objetivo é permitir personalização com controle total sobre as informações manipuladas.
A base de tudo, segundo os especialistas, é cultural. “Não adianta só criar regras. É preciso educar as pessoas, mostrar os riscos, conscientizar”, diz Walter. E mais: atualizar as políticas constantemente, já que o ritmo de evolução da IA é muito mais veloz do que o das regras corporativas.
Dicas para evitar a IA paralela no ambiente corporativo
Para mitigar os riscos da IA paralela, os especialistas apontam uma série de boas práticas. A seguir, destacamos cinco caminhos recomendados por profissionais da área para lidar com o problema de forma construtiva e eficaz.
- Defina o nível de tolerância a riscos
Estabelecer limites claros para o uso da IA, conforme o grau de sensibilidade dos dados envolvidos, é o primeiro passo para criar uma política realista. “O ideal é avaliar onde controles mais rígidos são essenciais e onde é possível flexibilizar sem abrir mão da segurança”, orienta Fernando Carbone, da IBM.
- Implemente uma governança incremental
Em vez de criar regras complexas de uma vez só, comece com projetos-piloto em setores específicos. Segundo Carbone, isso ajuda a testar soluções de forma controlada, ajustar as diretrizes e aumentar a adesão interna com base na experiência real.
- Engaje os colaboradores no processo
Entender quais ferramentas de IA já são usadas informalmente é essencial. Walter Hildebrandi destaca que envolver as pessoas na escolha e adoção de ferramentas oficiais “é mais eficiente do que proibir”, e permite que as soluções escolhidas estejam alinhadas às reais demandas do trabalho.
- Adote soluções homologadas e seguras
Investir em plataformas corporativas de IA, com rastreabilidade e proteção de dados, reduz a necessidade de alternativas externas. “Não adianta depender do bom senso do funcionário para definir o que é confidencial. A empresa deve fornecer ambientes seguros por padrão”, afirma Walter.
- Atualize constantemente as políticas e treinamentos
A tecnologia evolui rápido e, com ela, os riscos também. Revisar as diretrizes regularmente e capacitar as equipes garante que o uso da IA acompanhe as mudanças e respeite os requisitos legais e éticos mais recentes.

