STJ rejeita uso de inteligência artificial generativa como prova em ação penal contra ex-vice-prefeito

Em uma decisão inédita que estabelece um marco regulatório para o uso de tecnologias no Judiciário brasileiro, a Quinta Turma do Superior Tribunal de Justiça (STJ) decidiu, por unanimidade, invalidar a utilização de relatórios produzidos por inteligência artificial (IA) generativa como prova em processos criminais. O julgamento, concluído na primeira quinzena de abril de 2026, culminou no trancamento de uma ação penal por injúria racial e estabeleceu limites claros para a atuação de algoritmos na produção de provas.

O caso: Do campo de futebol ao tribunal

O processo teve origem em uma discussão ocorrida durante uma partida de futebol envolvendo o então vice-prefeito de São José do Rio Preto, Fábio Marcondes, e um segurança. A acusação sustentava que o político teria proferido ofensas de cunho racial.
A controvérsia central surgiu quando a Polícia Civil de São Paulo utilizou ferramentas de IA — especificamente o Gemini (do Google) e o Perplexity — para analisar vídeos do incidente. Enquanto a perícia oficial do Instituto de Criminalística (IC) foi inconclusiva, afirmando não ser possível identificar a fala através de métodos fonéticos tradicionais, o relatório gerado pelas IAs apontou a ocorrência da ofensa. Com base nesse documento “tecnológico”, o Ministério Público ofereceu a denúncia.

Os riscos da “alucinação” e a falta de rigor científico

O ministro relator, Reynaldo Soares da Fonseca, fundamentou seu voto destacando que a prova penal exige um padrão de confiabilidade que as IAs generativas ainda não podem oferecer sozinhas. Entre os principais pontos levantados pela Corte estão:

  • Risco de Alucinação: O ministro alertou que sistemas de IA operam por padrões estatísticos e probabilidades, podendo fabricar informações inexistentes com aparência de verdade (fenômeno conhecido como “alucinação”).
  • Inadequação Técnica: As ferramentas utilizadas foram projetadas para processamento de texto e linguagem, e não para perícia fonética ou acústica, tornando-as tecnicamente inaptas para validar áudios de baixa qualidade.
  • Ausência de Crivo Humano: O STJ entendeu que a substituição do perito humano por um algoritmo compromete o contraditório, já que a defesa não consegue auditar os critérios “caixa-preta” da máquina.

“A inteligência artificial deve ser vista como ferramenta de auxílio, jamais como substituta do perito ou do julgador. Sem validação técnico-científica e o crivo da racionalidade humana, o relatório carece de idoneidade”, afirmou o magistrado.

Precedente e impacto no sistema de justiça

A decisão é considerada histórica por ser o primeiro posicionamento colegiado do STJ sobre o uso de IA generativa como meio de prova. Ela envia um sinal direto para polícias e promotorias de todo o país: provas colhidas sem a devida cadeia de custódia tecnológica e sem supervisão humana crítica serão anuladas.
Especialistas apontam que, embora a IA já seja usada no Judiciário para tarefas administrativas e triagem de processos, seu uso na esfera penal — onde a liberdade do indivíduo está em jogo — exige cautela redobrada devido aos vieses algorítmicos que podem aprofundar injustiças, especialmente em casos de racismo e identificação facial.

Panorama atual (2026)

O julgamento ocorre em um momento de intensa pressão por regulamentação. Recentemente, outros tribunais superiores também enfrentaram incidentes envolvendo IA, como o Tribunal Superior do Trabalho (TST) e o STF, que multaram advogados por apresentarem petições com precedentes jurídicos falsos inventados por robôs. Com a decisão do STJ, o Brasil se alinha a uma tendência global de exigir “transparência algorítmica” e supervisão humana em decisões que impactam direitos fundamentais.

Deixe um comentário

Entrar

Cadastrar

Redefinir senha

Digite o seu nome de usuário ou endereço de e-mail, você receberá um link para criar uma nova senha por e-mail.