Geral

Prompt malicioso já vaza dados em IA corporativa e expõe falhas em ferramentas como Claude e Gemini

De acordo com a LC SEC, empresa de cibersegurança, casos recentes e alta de interações de risco mostram que uso de IA sem governança já virou ameaça operacional

Roberto Magalhães 17/04/2026
Prompt malicioso já vaza dados em IA corporativa e expõe falhas em ferramentas como Claude e Gemini
Prompt malicioso já vaza dados em IA corporativa e expõe falhas em ferramentas como Claude e Gemini - Foto: Assessoria

São Paulo, abril de 2026 – Falhas recentes em ferramentas de inteligência artificial generativa, como Claude Code e Gemini, evidenciaram que prompts maliciosos (comandos manipulados para induzir a IA a vazar dados ou executar ações indevidas), arquivos de projeto e até convites de calendário podem ser explorados para expor informações sensíveis e acessar dados privados em ambientes corporativos. O risco já deixou de ser teórico: entre janeiro e fevereiro de 2026, uma em cada 31 interações com IA generativa em redes empresariais apresentou alto potencial de vazamento de dados, segundo a Check Point. Para a LC SEC, empresa especializada em cibersegurança e governança, o contexto exige tratar a IA como uma nova superfície de ataque, e não apenas como ferramenta de produtividade.

Os episódios recentes ajudam a dimensionar o problema. Foi demonstrado que o Claude Code podia permitir execução remota de comandos e roubo de chaves de API por meio de arquivos de projeto maliciosos. Já no Gemini, um bypass explorado via convite de calendário foi capaz de acessar dados privados, em um caso confirmado e posteriormente corrigido pelo Google. Luiz Claudio, CEO e fundador da LC SEC também aponta que saídas em áudio e vídeo podem ser manipuladas para extrair instruções internas, ampliando o alcance dos ataques.

O avanço desse tipo de risco ocorre em paralelo à adoção acelerada da tecnologia nas empresas. Segundo o relatório Generative AI 2025, da Netskope, 90% das organizações já tinham usuários acessando aplicações de IA generativa diretamente e 98% utilizavam ferramentas com recursos de IA, com crescimento superior a 30 vezes no volume de dados enviados a esses serviços em um ano. Na prática, isso significa que informações sensíveis já circulam por esses sistemas em larga escala, muitas vezes sem controle adequado.

Apesar disso, a governança ainda não acompanha a velocidade de adoção. Na Cisco 2026 Data and Privacy Benchmark, apenas 12% das organizações declararam ter comitês de governança de IA maduros e proativos. Já a Trend Micro apontou, em março de 2026, que 67% das empresas sofreram pressão para liberar o uso de IA mesmo diante de preocupações de segurança, enquanto só 38% possuem políticas estruturadas. Segundo o executivo, esse descompasso é o principal vetor de risco: “A ferramenta entra por demanda do negócio, mas os controles ficam para depois. É nesse intervalo que surgem os incidentes”.

O tema já foi formalizado como prioridade por frameworks internacionais. A OWASP classifica o chamado prompt injection, técnica que manipula entradas para contornar regras e induzir a IA a agir fora do esperado, como o principal risco em aplicações com modelos generativos. Já o NIST alerta que ataques diretos e indiretos podem levar à exfiltração de dados e até à execução remota de código, reforçando que o problema não está apenas no modelo, mas no ecossistema conectado a ele, como e-mails, repositórios, calendários e sistemas internos.

Na prática, uma integração mal governada pode permitir exposição de credenciais, extração de arquivos internos, abuso de permissões e vazamento de dados pessoais, gerando impacto direto em LGPD, contratos e auditorias. Além disso, decisões baseadas em conteúdo manipulado aumentam o risco operacional e reputacional das organizações.

Diante desse cenário, a LC SEC defende que empresas passem a tratar a IA generativa como parte do perímetro de segurança, adotando medidas como inventário de aplicações, classificação de dados, revisão de acessos, testes de exposição, monitoramento contínuo e políticas claras de uso. A empresa atua com projetos alinhados a normas como ISO 27001 e ISO 42001, com foco em transformar o uso de IA em uma prática segura e governada.

Para Luiz Claudio, o momento exige mudança de abordagem: “A IA já está dentro das empresas e conectada a dados críticos. A diferença entre ganho de produtividade e vazamento de informação está nos controles. Sem isso, qualquer prompt pode se tornar uma porta de entrada para um incidente”, diz.