CNJ torna uso de IA pelo Judiciário mais burocrático, porém mais seguro
10 de março de 2025, 8h45
A nova resolução do Conselho Nacional de Justiça sobre a utilização de inteligência artificial (IA) no Judiciário dará mais segurança aos processos de contratação, desenvolvimento, uso e monitoramento de ferramentas que utilizam esse tipo de tecnologia, segundo os especialistas ouvidos pela revista eletrônica Consultor Jurídico sobre o assunto. Eles reconhecem que a norma tornará mais burocrático o uso da IA nos tribunais, mas defendem que isso, embora não pareça, é uma boa notícia.

CNJ aprovou em fevereiro novas regras para o uso de IA no Poder Judiciário
O Plenário do Conselho aprovou por unanimidade o texto no último dia 18, após receber contribuições por um ano. Elaborado sob a relatoria do conselheiro Luiz Fernando Bandeira de Mello, o documento tem por objetivo atualizar a Resolução CNJ 332/2020.
Essa normativa, publicada há cinco anos, estabeleceu diretrizes sobre ética, transparência e governança para o uso de inteligência artificial no Judiciário. A nova resolução dá alguns passos adiante: ela proíbe o uso de sistemas de IA que atribuam valor a traços da personalidade, características ou comportamentos; obriga a indicação de uso dessas ferramentas em decisões; e cria um sistema para classificar a finalidade das IAs entre oito categorias de “baixo risco” e seis de “alto risco”. Além disso, as ferramentas com funções de “alto risco” serão continuamente submetidas a auditorias.
O texto exige transparência, auditabilidade e explicabilidade da IA e obriga os tribunais que adotarem essa tecnologia a capacitar seus funcionários para o uso. A norma também institui o Comitê Nacional de Inteligência Artificial do Judiciário, um colegiado que auxiliará o CNJ a implementar e supervisionar a aplicação das regras.
Entre suas atribuições, estão aprimorar a resolução e as classificações de risco, consolidar padrões de mapeamento de ameaças e vedar ou limitar o uso de IA pelo Judiciário.
O colegiado verificará se os tribunais estão obedecendo as regras e, caso entenda que a classificação de alguma IA está equivocada, poderá corrigir o erro.
Avanços, com segurança
A diferença de teor entre os textos normativos de 2020 e 2025 é explicada pelo contexto em que eles foram elaborados, comenta Renata Azi, sócia do escritório Pessoa & Pessoa Advogados.
“Eles partiram de parâmetros diferentes. A gente não tinha ainda lá em 2020 a utilização de inteligência artificial generativa como a gente tem hoje. A nova resolução tentou justamente acompanhar essa inovação. Como a gente está navegando em águas muito novas, essa burocracia vai trazer um pouco mais de segurança.”
Sócia do Urbano Vitalino Advogados, a especialista em inovação jurídica Mabel Guimarães avalia que a resolução “introduz uma camada de complexidade e exigências que podem ser interpretadas como um aumento da burocracia no desenvolvimento, contratação, uso e monitoramento dessas ferramentas”.
Ela ressalta, no entanto, que isso é menos um entrave do que uma necessidade imposta por desafios éticos, técnicos e sociais. “A burocracia, nesse sentido, pode ser comparada ao que o jurista Hans Kelsen chamaria de ‘normas de controle’ em sua Teoria Pura do Direito: mecanismos essenciais para garantir a validade e a legitimidade do sistema, mesmo que isso implique uma certa perda de eficiência.”
Sócio do Godke Advogados e especialista em Direito Digital e Regulamentação em IA, Alexander Coelho considera que houve avanços em relação à resolução de 2020 e destaca o protagonismo que o texto dá à supervisão humana.
Defensor de um “modelo híbrido”, no qual a IA acelera e melhora a parte processual sem substituir o discernimento e a sensibilidade humanos, ele entende que esse regramento mais rigoroso eleva o nível de segurança e garante o cumprimento da Lei Geral de Proteção de Dados (Lei 13.853/2019). “É uma burocracia necessária para manter um funcionamento ético das ferramentas.”
Aumento compreensível
O desembargador do Tribunal de Justiça de Santa Catarina Marcos Fey Probst também diz que é compreensível o aumento do número de normas, considerando o ” singular avanço da inteligência artificial nas relações sociais e econômicas”. Para ele, a resolução é um passo importante para a garantia da ética, da transparência e da governança no uso da IA pela Justiça brasileira.
Recentemente, o magistrado relatou o caso de um recurso feito por meio de IA que citava jurisprudências e doutrinas inventadas. Na ocasião, Probst defendeu que aqueles que operam ferramentas desse tipo precisam ter cautela e parcimônia para evitar a reprodução de informações e fundamentos que não existem.
Apesar dessa experiência ruim, ele diz que a adoção da IA pelo Judiciário é inevitável. “A questão passa pela definição de quais as funções a serem desempenhadas com o auxílio dessas novas ferramentas. Assim como o ‘control C + control V’ não retirou o protagonismo do magistrado no exercício da atividade jurisdicional, as ferramentas de inteligência artificial também não substituirão a interpretação e aplicação da norma pelo magistrado, a partir da realidade de cada caderno processual.”
Mabel Guimarães reafirma que as medidas são fundamentais para “mitigar riscos como vieses discriminatórios, violações de privacidade e falta de responsabilização”, mas ela faz um alerta: as exigências normativas cada vez maiores podem criar alguns entraves.
“Tribunais menores ou com menos recursos podem enfrentar dificuldades para cumprir todas as etapas previstas na resolução, como a realização de auditorias complexas ou a manutenção de equipes multidisciplinares. Isso pode acabar exacerbando desigualdades dentro do próprio sistema judicial, onde tribunais mais estruturados terão condições de implementar as ferramentas de IA de forma mais rápida e eficiente, enquanto outros ficarão para trás.”
Encontrou um erro? Avise nossa equipe!