Uma análise conduzida pela Tenable revelou três vulnerabilidades críticas no ecossistema Gemini, assistente de inteligência artificial desenvolvido pelo Google. Essas falhas poderiam permitir o vazamento de informações armazenadas pelos usuários, incluindo dados de localização.
Apesar de as correções já terem sido implementadas pela empresa, o caso reacende o alerta sobre os riscos de privacidade em plataformas de IA.
As vulnerabilidades, apelidadas de “Gemini Trifecta”, afetavam diferentes componentes do sistema. A primeira envolvia uma injeção de prompt no Gemini Cloud Assist, que permitia manipular logs e interferir nas entradas da IA. A segunda estava no modelo de personalização de buscas, que podia ser explorado por meio do histórico do navegador Chrome para extrair informações sensíveis. Já a terceira falha, localizada na ferramenta de navegação do Gemini, possibilitava o envio de dados do usuário a servidores externos.
O estudo demonstrou que os ataques podiam ocorrer de forma discreta, utilizando técnicas como injeção de comandos maliciosos nos cabeçalhos User-Agent dos logs e inserção de consultas fraudulentas no histórico de navegação. Um dos métodos de exfiltração identificados aproveitava a própria execução da ferramenta de navegação para enviar informações a servidores sob controle dos invasores, burlando filtros que bloqueiam links ou formatos de resposta suspeitos.
Em resposta, o Google adotou medidas de mitigação, incluindo o bloqueio da renderização de hyperlinks nos logs, a reversão do modelo de personalização vulnerável e a restrição da exfiltração de dados via ferramenta de navegação em cenários de prompt injection indireto.
Mesmo assim, fica o alerta para os usuários, sejam eles pessoas físicas ou jurídicas revisar suas integrações com agentes de IA e as integrações de seus sistemas corporativos com dados sensíveis, limitar a exposição de logs e monitorar o uso anômalo de APIs para reduzir potenciais vetores de ataque.
Cada dia se faz mais importante o processo de adequação à Lei Geral de Proteção de Dados que criará, dentre outros documentos necessários, políticas e uso de IAs dentro das empresas, visando diminuir os riscos como os aqui expostos.
Contador, a empresa de seu cliente não estará segura sem que os empregados passem por um treinamento sobre o uso da IA e os perigos do compartilhamento indevido de informações sensíveis e até sigilosas com esses algoritmos.