A inteligência artificial (IA) está mudando tudo, da forma como pedimos comida à maneira como investigamos crimes, fazendo com que a gente se aproxime, finalmente, dos seriados futurísticos da década de noventa.
Contudo, essa revolução tecnológica presenciada no cotidiano da investigação criminal traz uma pergunta fundamental: a IA pode minar a confiabilidade da provas em um processo penal?
É notável, no entanto, que no centro dessa discussão está a cadeia de custódia, o rigoroso caminho que uma prova percorre do local do crime até o tribunal, culminando numa condenação ou na absolvição do sujeito apontado como autor da prática delitiva.
Desse modo, destaca-se que garantir a higidez da cadeia de custódia é a garantia de que a prova não foi alterada. Cada passo – coleta, armazenamento, transporte, análise – precisa ser documentado e imutável. Mas quando a IA entra em cena, especialmente com a análise de provas digitais, essa “certeza” pode ser seriamente testada.
Pense em um sistema de IA que analisa dados de celulares, câmeras de segurança ou redes sociais. Como temos certeza de que essa "máquina" não alterou, mesmo que minimamente, a informação original? E se ela excluiu dados que considerou irrelevantes, mas que eram cruciais para a defesa? Esse é o cerne do problema da "caixa preta".
Muitos algoritmos de IA são tão complexos que nem mesmo seus criadores conseguem explicar exatamente como chegam a uma conclusão, pois eles processam uma quantidade gigantesca de dados e aprendem padrões de forma autônoma.
Entretanto, se uma IA indica um suspeito ou analisa uma cena de crime digital, o juiz e o advogado precisam entender o "porquê" chegou-se aquela conclusão, de modo que a opacidade do processo interno da IA dificulta a fiscalização e a contestação da prova.
Outrossim, se uma máquina coleta uma prova digital, ou a transfere para um banco de dados, quem é o responsável se algo der errado? A intervenção humana na cadeia de custódia garante que há um elo de responsabilidade. Com sistemas autônomos, essa ligação pode se diluir, tornando mais difícil apontar o erro e garantir a integridade da prova.
Além disso, sistemas de IA podem ser vulneráveis a ataques cibernéticos, como qualquer sistema digital, na medida em que um hacker mal-intencionado poderia manipular dados processados por uma IA, inserindo informações falsas ou alterando as existentes, comprometendo fatalmente a cadeia de custódia.
Por outro lado, a adoção de tecnologias autônomas tem imposto desafios à prática forense, especialmente no que diz respeito à fundamentação das decisões judiciais. Isso porque o magistrado continua obrigado a explicitar, em sua decisão, os motivos de seu convencimento — exigência que, como tem demonstrado a prática recente, nem sempre vem sendo devidamente observada.
Logo, a pressa e ausência das cautelas necessárias na adoção das novas tecnologias, sem a devida cautela, pode nos levar a um cenário perigoso, com provas contaminadas ou duvidosas que comprometem a justiça do processo.
Logo, de que adianta ter a tecnologia mais avançada se ela nos priva da certeza de que a prova é, de fato, a prova, e que a decisão é, realmente, uma decisão?
É fundamental, portanto, que o avanço da IA na segurança pública e no cotidiano forense seja acompanhado por uma legislação robusta e protocolos claros, com regras que garantam a transparência dos algoritmos, a rastreabilidade das ações sobre as provas e a responsabilização em caso de falhas, inclusive com a auditoria constante desses sistemas.