Geral
IA na Justiça: absolvição de acusado de estupro em MG expõe vulnerabilidades?
Em fevereiro, a decisão do desembargador do TJMG Magid Nauef Láuar, que absolveu um homem condenado por estuprar uma menina de 12 anos, gerou forte reação nacional. O caso ganhou novo contorno após a identificação de um prompt de IA mantido no texto da decisão de 60 páginas, ampliando o debate sobre o uso da tecnologia no Judiciário.
Uma decisão da segunda instância da Justiça mineira ganhou as manchetes dos jornais pelo Brasil afora no último mês: inicialmente, por conta da decisão do desembargador que absolveu um homem de 35 anos condenado na etapa inicial do processo por estuprar uma menina de 12 anos. Na justificativa de Nauef Láuar, estava o "vínculo afetivo consensual" entre réu e vítima, mesmo com a previsão do Código Penal que configura qualquer ato libidinoso com menor de 14 anos como estupro de vulnerável.
Na sequência, veio outra descoberta que causou ainda mais polêmica. Entre as 60 páginas do processo, o magistrado manteve no texto um comando usado em ferramentas de inteligência artificial, conhecido como prompt: "Agora melhore a exposição e fundamentação deste parágrafo". No trecho, o juiz falava sobre a suposta "conduta omissiva por parte da genitora" da adolescente. E, na última terça-feira (3), o Conselho Nacional de Justiça (CNJ) confirmou o afastamento de Nauef Láuar por denúncias de crimes sexuais.
O bacharel em direito, consultor de inovação, sócio do Templo.cc e cofundador do Instituto Brasileiro de Ciência de Dados, Caio Almendra, lembra à Sputnik Brasil que a média anual de processos analisados por juiz no Brasil é superior a dois mil processos. A média do último levantamento divulgado pelo CNJ ficou acima de 2,5 mil, em meio a um estoque de mais de 75 milhões de processos pendentes na virada para 2026.
"Com isso, é esperado que ferramentas e atalhos sejam utilizados por juízes brasileiros. A IA é mais um passo no longo histórico de automatização e simplificação da produção de decisões judiciais no Brasil. Como toda tecnologia, contudo, há um custo de implementação e, principalmente, uma transformação cultural necessária para seu bom uso. O Judiciário brasileiro tem histórico de altíssimo grau de inovação e digitalização, muito superior a países ricos, como EUA, Inglaterra e França", contextualiza.
Mesmo com o alto volume de processos, o especialista reforça que os magistrados têm o dever institucional "de zelar pelo jurisdicionado" e, quando demonstram não terem relido atentamente uma decisão "escrita por terceiros, seja um assessor, um estagiário ou uma ferramenta de IA, há uma falha nesse dever básico de revisão". A consequência, segundo Almendra, é afetar a credibilidade do Judiciário brasileiro.
Aliado a isso, o consultor de inovação pontua que a responsabilidade jurídica pelo erro é do magistrado.
"Infelizmente, o processo de responsabilização de juízes por erros é extremamente falho. Virou piada de Internet que a pior condenação possível é a aposentadoria compulsória. Ou seja, deixar de trabalhar, mas manter os vencimentos. E mesmo essa é relativamente rara, além de os procedimentos administrativos serem demorados. Por fim, a baixa qualidade da fundamentação, por exemplo, sequer enseja advertência", acrescenta.
Para reduzir falhas e aumentar a segurança jurídica, o especialista defende que magistrados promovam um estudo coletivo das melhores experiências internas de uso da inteligência artificial na rotina forense, além da criação de protocolos institucionais claros. Segundo ele, se o Judiciário reconhecer a IA como ferramenta inevitável, ainda que isso não seja consenso no mercado ou na política, poderá estruturar um sistema institucional de redação de decisões com IA integrada, capaz de registrar quando e como a tecnologia foi utilizada.
"Isso poderia ser implementado por regulamentação interna ou mesmo por mudanças nos próprios sistemas digitais do Judiciário", argumenta, ao lembrar que criar um selo que identifica o uso de IA pode aumentar a transparência, mas também necessita de protocolos claros sobre quando a tecnologia pode ser usada.
Ferramentas de IA e a reprodução de vieses históricos
Já a professora da Escola de Direito do Rio de Janeiro da Fundação Getúlio Vargas (FGV) Yasmin Curzi alerta que as ferramentas de inteligência artificial, treinadas com altos volumes de textos e dados gerados diariamente pelos usuários, acabam reproduzindo desigualdades sócio-históricas. Como exemplo, a especialista citou a recomendação de vagas de emprego em redes sociais corporativas.
"Trata-se de um sistema algorítmico que faz recomendações com base em modelos de machine learning, ou aprendizado de máquina. A partir desses padrões, determinadas vagas passam a ser mais frequentemente sugeridas a mulheres, como funções de secretariado ou assessoria, enquanto cargos de liderança ou posições de maior hierarquia tendem a ser direcionados a homens. Isso ocorre porque temos um padrão sócio-histórico de mais mulheres nessas vagas e mais homens nessas outras vagas, o que mostra uma reprodução da desigualdade de gênero", exemplifica.
Diante disso, a especialista cita a necessidade de entendimento da chamada justiça algorítmica, que é justamente compreender que dados, informações e tarefas realizadas por ferramentas de IA já são enviesadas por natureza.
"Ainda que muitas dessas empresas já tenham implementado filtros e tentado mitigar esses danos algorítmicos, eles ainda são persistentes. Então, portanto, o juiz precisa ter esse olhar crítico de antemão para interpretar esses dados de forma adequada e não permitir que eles continuem ali perpetuando essas desigualdades", afirma.
A professora da FGV afirma ainda que existe um senso comum de tratar máquinas, como smartphones e computadores, como se fossem calculadoras, associadas a um "viés de objetividade e neutralidade", como se fossem capazes de produzir um resultado quase matemático. "Precisamos sempre desconfiar desse resultado, dessa tomada de decisão da máquina, e olhar para ela criticamente", aconselha.
IA na Justiça expõe riscos à soberania digital?
Dados do CNJ divulgados no ano passado revelaram que quase 46% dos tribunais brasileiros já utilizam IA generativa, como o ChatGPT. Entre aqueles que ainda não adotaram a tecnologia, mais de 81% afirmaram que pretendem incorporá-la nos próximos anos. Diante desse cenário, a professora Yasmin Curzi chama atenção para possíveis impactos sobre a chamada soberania digital, já que nenhuma das principais empresas responsáveis por essas ferramentas é brasileira, sendo a maioria sediada em países como os Estados Unidos.
"Os dados são hoje o novo petróleo que alimenta a economia de dados e as grandes infraestruturas digitais que têm justamente tendido à monopolização de determinados setores. Essas plataformas vão sendo alimentadas por informações pessoais, dados demográficos e de comportamento, e sendo monetizadas com isso, gerando grande valor. Isso é também uma questão para a soberania. Além disso, as empresas basicamente estão lucrando com os dados da população brasileira, inclusive do Judiciário, sem qualquer retorno", finaliza.
Mais lidas
-
1LUTO NA TELEDRAMATURGIA
Morre Dennis Carvalho, ator e diretor de clássicos como “Vale Tudo” e “Fera Ferida”, aos 78 anos
-
2TEMPO INSTÁVEL
Chuva forte alaga Paraty, deixa moradores ilhados e pertences submersos; veja vídeo
-
3MEMÓRIA
Jaqueta de Dinho, dos Mamonas Assassinas, é encontrada intacta em exumação
-
4DEFESA ESTRATÉGICA
Estados Unidos testam míssil intercontinental Minuteman III com sucesso
-
5ESTADUAL
CRB e ASA voltam a decidir o Alagoano pela quinta vez consecutiva; FAF define datas e locais