Robôs e decisão judicial: entre calvinball e messianismo digital
15 de março de 2025, 8h00
Experiências e estudos mais atuais [1] têm constatado a permanência de um problema, nas plataformas de inteligência artificial, que já é bem documentado: elas tendem a trapacear para cumprir tarefas. Em um interessante caso recente [2], o popular ChatGPT foi colocado para jogar uma partida de xadrez contra outra IA. No meio da partida, o robô adversário começou a trapacear ostensivamente. Como o ChatGPT respondeu a esta violação das regras? Simples: passou a trapacear também!
Este exemplo de anarquia cibernética nos remete à famosa tira de quadrinhos dos anos 1980 e 1990, Calvin & Hobbes, de Bill Watterson. Calvin, um imaginativo menino de seis anos, está sempre acompanhado por seu melhor amigo, o peculiar Hobbes. Ambos têm como esporte favorito o inusitado Calvinball, um “jogo” frenético no qual a única regra preexistente é que todas as demais regras são instituídas em tempo real, durante cada partida, pelos próprios jogadores.
Partindo sempre de um grau zero de sentido, as partidas de Calvinball invariavelmente se desenvolvem de forma aleatória e incoerente. Como seria de se esperar, o aspecto cômico das tiras centradas neste singular esporte reside nas contínuas brigas dos personagens em torno da validade de cada lance do jogo, assim como no fato de que a vitória em cada partida depende mais da retórica de cada jogador (para a arguição criativa de regras ad hoc em benefício próprio) do que de qualquer efetiva demonstração de superioridade física. Hobbes, o sábio e sagaz tigre falante – que é visto por todo o resto do mundo como um tigrinho de pelúcia comum –, é o parceiro perfeito para um jogo como este, desprovido de limites e interditos, na medida em que ele próprio também é uma expressão da subjetividade de Calvin.
No entanto, à exceção do fictício e humorístico Calvinball, o que faz com que um jogo em particular seja efetivamente aquele jogo específico vem a ser, justamente, a observância das regras previamente estabelecidas, que constituem o jogo em si e o definem – distinguindo-o de todos os outros. É por isso que, em sua clássica obra O Conceito de Direito, Hart argumenta que um jogo no qual a violação das regras passa a ser sistemática simplesmente deixa de ser aquele jogo original, tornando-se outra coisa, um “jogo ao arbítrio do marcador” [3].
Apesar disso, pelo menos no atual estágio das IAs, a lógica que orienta o modus operandi dos nossos robôs contemporâneos não é uma diretriz estilo Robocop, no sentido de uphold the law (apoiar/reforçar as regras), mas sim tão somente de realizar a tarefa recebida. Se a ordem for derrotar o adversário em determinado jogo, a IA entende que é aceitável até mesmo inventar novas regras como meio para a vitória (Calvin ficaria orgulhoso!). Se a tarefa for pesquisar sobre certo tema, a IA não vê problemas em apresentar alegações inverídicas e fontes incorretas, misturadas ou até mesmo inventadas [4] (lembrando que já houve até caso de magistrado passando por constrangimento, perante o CNJ, por conta do seu excesso de fé no oráculo robô) [5]. Para a IA, a única coisa realmente inaceitável é não cumprir a tarefa que lhe foi ordenada. Vale tudo, menos “perder” ou dizer “não sei”. Por isso, às vezes, se o robô não sabe, ele inventa – e mente com alarmante tranquilidade e convicção!
Dado tudo o que se tem observado em relação ao funcionamento da IA até o momento, seria de todo recomendável que qualquer pretensão de uso de robôs na prestação jurisdicional (sobretudo em decisões judiciais) fosse acompanhada de extrema cautela e prudência, e tratada tão somente como mera possibilidade para o futuro. Agora seria o momento propício para observar e estudar a forma como a inteligência artificial está se desenvolvendo, para mais adiante avaliar se e como essa tecnologia, depois de plenamente amadurecida, poderia ser utilizada como instrumento de otimização da jurisdição.
Infelizmente, a resposta do Judiciário brasileiro à recente emergência destas novas tecnologias tem se dado, em grande parte, no sentido diametralmente oposto [6] – ou seja, na forma de uma adesão entusiástica e acrítica a uma postura de modernização apressada, que deposita exagerada fé nas IAs enquanto potenciais salvadoras e redentoras da prestação jurisdicional [7]. Após tão somente um par de anos de difusão generalizada das plataformas de inteligência artificial, já há robôs no Judiciário fulminando recursos e decidindo processos [8] (ou “apresentando sugestões e elaborando esboços de decisões”, se o leitor se sentir mais à vontade com eufemismos). Ao invés da cautela, prudência e observação, estamos optando pelo deslumbramento e pelo (re)encantamento prometido por uma espécie de discurso mágico “2.0” [9].
Pensemos, a título de comparação, no longo caminho percorrido pelo Judiciário brasileiro para a transição do processo físico para o eletrônico. Enquanto revistas, livros e documentos em geral começaram a passar por um processo generalizado de digitalização já no começo dos anos 2000, a transposição dessa lógica para os processos judiciais se deu, lentamente, ao longo de pelo menos uma década e meia (em alguns tribunais, esta transição do físico para o digital só veio a ser concluída após a pandemia de Covid-19, já nos anos 2020). Por que toda essa pressa, agora, pela institucionalização das IAs? Vale lembrar: estamos falando de uma tecnologia cujo desenvolvimento ainda se encontra em pleno andamento, e cujo alcance e potencial ainda são objeto de dúvidas e incertezas até mesmo entre os especialistas da área.
Entusiastas da robotização judicial têm apresentado argumentos “tranquilizantes”, afirmando coisas como “todas as contribuições da inteligência artificial passarão por minuciosa revisão humana”. Seria ótimo se assim fosse! Infelizmente, tal “solução” é impraticável. A deficiência de tal argumento já foi esmiuçada por Lenio Streck [10]: como o Poder Judiciário iria dispor de recursos humanos para revisar todos os trabalhos da inteligência artificial – que faz coisas como resumir milhares de páginas de um processo em uma síntese de apenas cinco laudas, ou compilar informações após análise de milhares de acórdãos? Ora: na prática, o colossal volume de trabalho humano que seria necessário para revisar e auditar as “proezas” algorítmicas deixaria o Judiciário mais lento e sobrecarregado do que se não utilizasse robôs!
Todavia, não se trata apenas de um dilema do tipo “Quis custodiet ipsos custodes?” (“Quem vigia os vigilantes?”). Há outros dois problemas tão ou mais sérios aqui. O primeiro decorre do fato de que aplicar o Direito não é uma técnica passível de ser automatizada, na medida em que o Direito democrático contemporâneo [11] é, a um só tempo, um conceito interpretativo [12] e uma prática social compartilhada [13] – cuja complexidade se dá não apenas em razão da multiplicidade (potencialmente infinita) de variáveis fáticas nas situações concretas que são juridicizadas, mas também por conta da permanente fluidez que decorre das inescapáveis transformações sociais, políticas e econômicas.

O segundo problema decorre do fato de que, até hoje, não existe entre os humanos (nem sequer no interior de um único ordenamento jurídico específico) um consenso universal a respeito de como se deve proceder, em termos de interpretação e aplicação do Direito, para obtenção de respostas jurídicas corretas (ou constitucionalmente adequadas). A implicação óbvia deste fato é que simplesmente não é possível terceirizar para robôs as questões hermenêutico-epistemológicas e os problemas sociais que ainda não foram adequadamente superados pela teoria e pela prática humana, a menos que se acredite que a IA, a qualquer momento, irá transcender os limites intelectuais da própria humanidade e passar da condição de aprendiz para professor do homo sapiens – o que é messianismo digital [14] em sua forma mais ingênua e caricatural.
Ao delegarmos a um robô a tarefa de limpar uma casa (ou organizar uma agenda, redigir um e-mail ou fazer uma lista de compras), dispomos de critérios compartilhados, bastante razoáveis e consolidados, que nos permitem analisar com tranquilidade se a máquina cumpriu ou não a tarefa a contento. Quando conhecemos as perguntas e as respostas, podemos tranquilamente automatizar os procedimentos que nos conduzem de uma coisa à outra. Mas, quando estamos falando de conceitos interpretativos e práticas sociais complexas, em permanente transformação, o agir reflexivo humano é indelegável [15]. É o caso da aplicação do Direito na resolução de um caso concreto.
A pressa pelas “facilidades” da IA pode produzir estragos muito palpáveis – como atropelar direitos, dificultar e elitizar o acesso à Justiça, ocultar maus padrões decisórios (eivados de pré-juízos e pré-conceitos) sob o manto “técnico” da inteligência algorítmica, ampliar o campo da discricionariedade judicial e agravar o problema do tratamento diferenciado entre jurisdicionados [16]. Isso sem falar nos perigos da submissão voluntária do aparato estatal a plataformas e tecnologias que se encontram nas mãos de big techs estrangeiras [17], cuja falta de compromisso com a democracia é notória e ostensiva. Estes problemas não devem ser ignorados, nem relativizados por um otimismo ingênuo. Na prestação jurisdicional do Estado Democrático de Direito, não há lugar para Calvinball.
[1] Sobre o tema, recomenda-se a leitura de matéria publicada na revista Time no mês passado, disponível no seguinte endereço: https://time.com/7259395/ai-chess-cheating-palisade-research/ . Os resultados do estudo que serviu de base para a matéria em questão referida também foram objeto de análise no portal do MIT Technology Review, publicada no corrente mês de março. Link: https://www.technologyreview.com/2025/03/05/1112819/ai-reasoning-models-can-cheat-to-win-chess-games/
[2] https://br.ign.com/tech/137126/news/homem-coloca-chatgpt-contra-a-melhor-ia-de-xadrez-da-franca-e-percebe-uma-coisa-eles-nao-parariam-po
[3] HART, H.L.A. O conceito de direito. São Paulo: Editora WMF Martins Fontes, 2009. p. 187.
[4] Em artigo recente publicado no portal jurídico Migalhas, Victor Habib Lantyer de Mello explica as dificuldades técnicas para identificar e prevenir as “alucinações” da IA generativa. Ver: https://www.migalhas.com.br/depeso/425629/alucinacao-de-ia-generativa-e-suas-implicacoes-no-direito
[5] https://www.conjur.com.br/2023-nov-12/cnj-vai-investigar-juiz-que-usou-tese-inventada-pelo-chatgpt-para-escrever-decisao/
[6] https://www.cnnbrasil.com.br/politica/66-dos-tribunais-no-brasil-usam-inteligencia-artificial-aponta-cnj/
[7] Em palestra proferida na Universidade de Oxford em julho do ano passado, o ministro do STF, Luís Roberto Barroso, afirmou ser um “entusiasta” da IA no Poder Judiciário, inclusive para uso no processo decisório. Ver: https://www.estadao.com.br/politica/blog-do-fausto-macedo/barroso-stf-oxford-inteligencia-artifical-judiciario-decisao-juiz/?srsltid=AfmBOoo1uSH2YXEB32y_kTmUK_BiiMOPrkWAMlIjf-ymTHBR2eofkWMZ
[8] https://oglobo.globo.com/economia/defesa-do-consumidor/noticia/2023/10/09/mais-de-cem-robos-ja-atuam-na-justica-brasileira-entenda-os-modelos-de-ia-e-saiba-o-que-eles-fazem-nos-processos.ghtml
[9] Não se trata de ludismo ou idealização do passado. Novas tecnologias, a rigor, são sempre bem-vindas – desde que seguras, estáveis e suficientemente desenvolvidas antes de sua adoção pelas instituições republicanas. Frise-se que já algumas existem iniciativas institucionais no sentido da regulação do uso de IAs pelos tribunais, como é o caso da recente atualização (via Ato Normativo 0000563-47.2025.2.00.0000) da Resolução 332/2020 do CNJ. No entanto, até o momento, essas iniciativas ainda se mostram modestas e insuficientes para lidar com os problemas abordados neste texto.
[10] STRECK, Lenio Luiz. Garantismo, IA e protocolos do CNJ: os algoritmos brigarão entre si? Consultor Jurídico. 10 de março de 2025. Disponível em: https://www.conjur.com.br/2025-fev-06/garantismo-ia-e-protocolos-do-cnj-os-algoritmos-brigarao-entre-si/
[11] ” É este o plus do Estado Democrático de Direito: a diminuição do espaço de discricionariedade da política pela Constituição fortalece materialmente os limites entre Direito, política e moral”. STRECK, Lenio Luiz. Dicionário de Hermenêutica: 50 verbetes fundamentais da Teoria do Direito à luz da Crítica Hermenêutica do Direito. Letramento: Casa do Direito, 2020. p. 33.
[12] “Direito é um conceito interpretativo e é aquilo que é emanado pelas instituições jurídicas, sendo que as questões a ele relativas encontram, necessariamente, respostas nas leis, nos princípios constitucionais, nos regulamentos e nos precedentes que tenham DNA constitucional, e não na vontade individual do aplicador (mesmo que seja o STF). Assim como a realidade, também o direito possui essa dimensão interpretativa. Essa dimensão implica o dever de atribuir às práticas jurídicas o melhor sentido possível para o direito de uma comunidade política. A integridade e a coerência devem garantir o DNA do direito nesse novo paradigma”. STRECK, Lenio. Hermenêutica e jurisdição: diálogos com Lenio Streck. Porto Alegre: Livraria do Advogado, 2017. p. 91.
[13] Neste sentido, ver: HÄBERLE, Peter. Hermenêutica Constitucional – a sociedade aberta dos intérpretes da Constituição: contribuição para a interpretação pluralista e “procedimental” da Constituição. Sergio Antonio Fabris Editor: Porto Alegre, 1997. p. 36.
[14] Na ficção, a expectativa por respostas desconhecidas (e que antecipam a própria formulação clara das perguntas) foi famosamente parodiada por Douglas Adams em seu livro “O Guia do Mochileiro das Galáxias”. Na trama, uma avançada civilização alienígena constrói um supercomputador e pede a ele a resposta para “A Grande Questão da Vida, do Universo e Tudo Mais”. Sete milhões de anos depois, o computador conclui a tarefa e anuncia a todos a tão aguardada resposta: “42”. A anedota explicita que a busca pela “objetividade”, ao tentar contornar a complexidade, sacrifica também o sentido e o valor das nossas práticas sociais compartilhadas, gerando “respostas” inúteis.
[15] Ver: NUNES, Dierle. IA generativa no Judiciário brasileiro: realidade e alguns desafios. Consultor Jurídico. 10 de março de 2025. Disponível em: https://www.conjur.com.br/2025-mar-10/ia-generativa-no-judiciario-brasileiro-realidade-e-alguns-desafios/
[16] Abre-se espaço, por exemplo, para novas distinções discricionárias do tipo easy case e hard case – justiça algorítmica, automatizada, para os casos “simples” (aqueles sem holofotes midiáticos ou pressões econômicas, políticas etc.) e justiça humana, laboriosa, para os casos “complexos” (“importantes”).
[17] O fato de os tribunais brasileiros estarem desenvolvendo robôs “próprios” não significa que o Judiciário terá condições de se valer de todos os recursos das IAs mais modernas sem recorrer a ferramentas e tecnologias hoje concentradas nas mãos das big techs. Escapar desta lógica demanda investimentos em quantias muito elevadas, que podem ser proibitivas.
Encontrou um erro? Avise nossa equipe!