Em uma decisão inédita que estabelece um marco regulatório para o uso de tecnologias no Judiciário brasileiro, a Quinta Turma do Superior Tribunal de Justiça (STJ) decidiu, por unanimidade, invalidar a utilização de relatórios produzidos por inteligência artificial (IA) generativa como prova em processos criminais. O julgamento, concluído na primeira quinzena de abril de 2026, culminou no trancamento de uma ação penal por injúria racial e estabeleceu limites claros para a atuação de algoritmos na produção de provas.
O caso: Do campo de futebol ao tribunal
O processo teve origem em uma discussão ocorrida durante uma partida de futebol envolvendo o então vice-prefeito de São José do Rio Preto, Fábio Marcondes, e um segurança. A acusação sustentava que o político teria proferido ofensas de cunho racial.
A controvérsia central surgiu quando a Polícia Civil de São Paulo utilizou ferramentas de IA — especificamente o Gemini (do Google) e o Perplexity — para analisar vídeos do incidente. Enquanto a perícia oficial do Instituto de Criminalística (IC) foi inconclusiva, afirmando não ser possível identificar a fala através de métodos fonéticos tradicionais, o relatório gerado pelas IAs apontou a ocorrência da ofensa. Com base nesse documento “tecnológico”, o Ministério Público ofereceu a denúncia.
Os riscos da “alucinação” e a falta de rigor científico
O ministro relator, Reynaldo Soares da Fonseca, fundamentou seu voto destacando que a prova penal exige um padrão de confiabilidade que as IAs generativas ainda não podem oferecer sozinhas. Entre os principais pontos levantados pela Corte estão:
- Risco de Alucinação: O ministro alertou que sistemas de IA operam por padrões estatísticos e probabilidades, podendo fabricar informações inexistentes com aparência de verdade (fenômeno conhecido como “alucinação”).
- Inadequação Técnica: As ferramentas utilizadas foram projetadas para processamento de texto e linguagem, e não para perícia fonética ou acústica, tornando-as tecnicamente inaptas para validar áudios de baixa qualidade.
- Ausência de Crivo Humano: O STJ entendeu que a substituição do perito humano por um algoritmo compromete o contraditório, já que a defesa não consegue auditar os critérios “caixa-preta” da máquina.
“A inteligência artificial deve ser vista como ferramenta de auxílio, jamais como substituta do perito ou do julgador. Sem validação técnico-científica e o crivo da racionalidade humana, o relatório carece de idoneidade”, afirmou o magistrado.
Precedente e impacto no sistema de justiça
A decisão é considerada histórica por ser o primeiro posicionamento colegiado do STJ sobre o uso de IA generativa como meio de prova. Ela envia um sinal direto para polícias e promotorias de todo o país: provas colhidas sem a devida cadeia de custódia tecnológica e sem supervisão humana crítica serão anuladas.
Especialistas apontam que, embora a IA já seja usada no Judiciário para tarefas administrativas e triagem de processos, seu uso na esfera penal — onde a liberdade do indivíduo está em jogo — exige cautela redobrada devido aos vieses algorítmicos que podem aprofundar injustiças, especialmente em casos de racismo e identificação facial.Panorama atual (2026)
O julgamento ocorre em um momento de intensa pressão por regulamentação. Recentemente, outros tribunais superiores também enfrentaram incidentes envolvendo IA, como o Tribunal Superior do Trabalho (TST) e o STF, que multaram advogados por apresentarem petições com precedentes jurídicos falsos inventados por robôs. Com a decisão do STJ, o Brasil se alinha a uma tendência global de exigir “transparência algorítmica” e supervisão humana em decisões que impactam direitos fundamentais.




Deixe um comentário
Você precisa fazer o login para publicar um comentário.