x

ARTIGO DE TECNOLOGIA

Mais uma vez a IA se mostra perigosa em relação a privacidade dos usuários

Estudo identificou três falhas no Gemini que poderiam comprometer dados sensíveis; empresas devem reforçar segurança e treinar equipes no uso de IA.

06/10/2025 14:45

  • compartilhe no facebook
  • compartilhe no twitter
  • compartilhe no linkedin
  • compartilhe no whatsapp
Mais uma vez a IA se mostra perigosa em relação a privacidade dos usuários

Mais uma vez a IA se mostra perigosa em relação a privacidade dos usuários

Uma análise conduzida pela Tenable revelou três vulnerabilidades críticas no ecossistema Gemini, assistente de inteligência artificial desenvolvido pelo Google. Essas falhas poderiam permitir o vazamento de informações armazenadas pelos usuários, incluindo dados de localização

Apesar de as correções já terem sido implementadas pela empresa, o caso reacende o alerta sobre os riscos de privacidade em plataformas de IA.

As vulnerabilidades, apelidadas de Gemini Trifecta, afetavam diferentes componentes do sistema. A primeira envolvia uma injeção de prompt no Gemini Cloud Assist, que permitia manipular logs e interferir nas entradas da IA. A segunda estava no modelo de personalização de buscas, que podia ser explorado por meio do histórico do navegador Chrome para extrair informações sensíveis. Já a terceira falha, localizada na ferramenta de navegação do Gemini, possibilitava o envio de dados do usuário a servidores externos.

O estudo demonstrou que os ataques podiam ocorrer de forma discreta, utilizando técnicas como injeção de comandos maliciosos nos cabeçalhos User-Agent dos logs e inserção de consultas fraudulentas no histórico de navegação. Um dos métodos de exfiltração identificados aproveitava a própria execução da ferramenta de navegação para enviar informações a servidores sob controle dos invasores, burlando filtros que bloqueiam links ou formatos de resposta suspeitos.

Em resposta, o Google adotou medidas de mitigação, incluindo o bloqueio da renderização de hyperlinks nos logs, a reversão do modelo de personalização vulnerável e a restrição da exfiltração de dados via ferramenta de navegação em cenários de prompt injection indireto.

Mesmo assim, fica o alerta para os usuários, sejam eles pessoas físicas ou jurídicas revisar suas integrações com agentes de IA e as integrações de seus sistemas corporativos com dados sensíveis, limitar a exposição de logs e monitorar o uso anômalo de APIs para reduzir potenciais vetores de ataque.

Cada dia se faz mais importante o processo de adequação à Lei Geral de Proteção de Dados que criará, dentre outros documentos necessários, políticas e uso de IAs dentro das empresas, visando diminuir os riscos como os aqui expostos.

Contador, a empresa de seu cliente não estará segura sem que os empregados passem por um treinamento sobre o uso da IA e os perigos do compartilhamento indevido de informações sensíveis e até sigilosas com esses algoritmos.

Leia mais sobre

O artigo enviado pelo autor, devidamente assinado, não reflete, necessariamente, a opinião institucional do Portal Contábeis.
ÚLTIMAS NOTÍCIAS

ARTICULISTAS CONTÁBEIS

VER TODOS

O Portal Contábeis se isenta de quaisquer responsabilidades civis sobre eventuais discussões dos usuários ou visitantes deste site, nos termos da lei no 5.250/67 e artigos 927 e 931 ambos do novo código civil brasileiro.

Utilizamos cookies para ajudar a melhorar a sua experiência de utilização. Ao utilizar o website, você confirma que aceita a sua utilização. Conheça a nossa política de utilização de cookies

1999 - 2025 Contábeis ® - Todos os direitos reservados. Política de privacidade