O ser humano cada vez mais tem terceirizado as tarefas para as inteligências artificiais. O que parece comodidade pode gerar falta de segurança, ainda mais quando o assunto é criação de senhas de segurança.
Senhas geradas por ferramentas de inteligência artificial costumam aparentar alto nível de segurança, porém podem ser mais previsíveis do que se imagina. É o que indica um estudo divulgado pela empresa de segurança em IA Irregular, que alerta para vulnerabilidades quando modelos de linguagem natural (LLMs) são utilizados diretamente para criar credenciais de acesso.
Segundo a empresa, o problema está no próprio funcionamento desses modelos. Diferentemente dos geradores de senhas baseados em números aleatórios criptograficamente seguros, os LLMs operam por probabilidade estatística, prevendo o próximo caractere ou token com base em padrões aprendidos e não por seleção verdadeiramente aleatória.
Testes realizados com modelos atuais identificaram padrões recorrentes, como distribuição desigual de caracteres, uso frequente de determinados prefixos e repetição de senhas em múltiplas execuções. O relatório cita como exemplo o modelo Claude Opus 4.6, desenvolvido pela Anthropic, no qual apenas 30 senhas geradas eram únicas, sendo que uma mesma senha apareceu 18 vezes. Também foi observada alta incidência de certos caracteres, enquanto outros quase não eram utilizados.
O estudo destaca ainda riscos no desenvolvimento de software: agentes de codificação automatizados podem gerar senhas sem recorrer a geradores seguros, mesmo quando tais recursos estão disponíveis.
Como medidas preventivas, a Irregular recomenda evitar o uso de senhas criadas por LLMs, configurar agentes de desenvolvimento para utilizar mecanismos seguros de geração de credenciais e definir, como padrão, o uso de fontes aleatórias confiáveis e gerenciadores de senhas reconhecidos no mercado.
O maior perigo ainda vem do fato da Inteligência Artificial guardar sua senha e jamais saberemos se ela, em algum momento, será vazada ou compartilhada sem o conhecimento do usuário o que aumenta, ainda mais o risco do uso desse tipo de aplicativo.
Ser humano que está lendo este artigo, até quando a sua comodidade vai colocar em risco a sua segurança e a dos seus? Até onde você está disposto a trocar a sua vida por uma mera facilidade que há pouco tempo sequer existia?
Cada vez mais as pessoas estão ficando dependentes das Inteligências Artificiais que já se mostraram ineficientes, trazendo em 80% dos casos informações equivocadas, o que a Open IA chamou de alucinação da IA.
Quais são e serão os danos futuros dessas informações falsas, senhas iguais e ignorância dos usuários trarão no futuro?
Cada dia mais as pessoas estão confiando cegamente no que as Inteligências Artificiais trazem de informação sem ao menos checar se isso é real ou alucinação.
Se você usa o ChatGPT veja o que está escrito no rodapé da página: “O ChatGPT pode cometer erros. Confira informações importantes.”
Até quando você vai confiar mais em uma máquina do que nas pesquisas e informações de outros seres humanos? Fica aqui o alerta!












