O uso da IA nas investigações criminais
É preciso que os dados usados para treinar algoritmos sejam representativos e livres de vieses

O uso de tecnologias de inteligência artificial tem crescido de forma acelerada em diferentes setores, inclusive nas investigações criminais. Hoje, sistemas de reconhecimento facial, análise de textos, previsão de comportamentos e triagem de denúncias já fazem parte do cotidiano das forças de segurança. Mas esse avanço também traz riscos sérios que não podem ser ignorados.
Um dos principais problemas é a possibilidade de injustiças. Os algoritmos de IA podem reproduzir preconceitos presentes nos dados históricos. Se as informações usadas no treinamento tiverem viés racial ou socioeconômico, há risco de decisões discriminatórias contra determinados grupos. O reconhecimento facial, por exemplo, já mostrou índices de erro maiores para algumas populações, o que pode levar a identificações equivocadas, falsas denúncias e até prisões indevidas.
Outro ponto crítico é a falta de transparência. Muitos sistemas funcionam como “caixas-pretas”, sem explicar como uma conclusão foi alcançada. Isso dificulta o contraditório em processos judiciais e compromete a responsabilização em casos de erro. Quando decisões baseadas em IA são aceitas como evidência, um equívoco pode resultar em condenações injustas e irreparáveis.
A coleta excessiva de dados pessoais também preocupa. O uso de reconhecimento facial em manifestações ou ambientes públicos, sem consentimento, pode violar direitos básicos de privacidade. Além disso, algoritmos podem classificar de forma errada uma denúncia como verdadeira, direcionando investigações a inocentes e comprometendo a credibilidade do sistema de justiça.
Esses riscos abalam a confiança nas instituições. Casos de erros ou acusações infundadas feitos por algoritmos podem gerar desconfiança e enfraquecer ainda mais a relação entre sociedade e justiça. Por isso, cresce a necessidade urgente de uma regulamentação clara e específica.
É fundamental garantir que os sistemas de IA sejam transparentes, auditáveis e sujeitos à revisão humana. Também é preciso que os dados usados para treinar algoritmos sejam representativos e livres de vieses, para reduzir as chances de discriminação. Transparência, ética e direito ao contraditório devem ser princípios obrigatórios nesse processo.
A IA pode ser uma ferramenta poderosa, mas precisa ser aplicada com responsabilidade. Sem controle adequado, há o risco de transformar avanços tecnológicos em instrumentos de injustiça. O equilíbrio está em unir inovação com proteção aos direitos humanos. Esse esforço conjunto é o que pode garantir uma aplicação realmente benéfica da tecnologia nas investigações criminais.
Daniel Vicente Romero
Advogado.