Opinião

Fundamentação das decisões e uso responsável de IA generativa no Judiciário

Autor

31 de agosto de 2024, 15h21

Nos últimos anos, diversos artigos desta ConJur têm explorado o crescente uso da inteligência artificial generativa no sistema judiciário brasileiro, destacando tanto os potenciais benefícios quanto os desafios. Independentemente da área de atuação dos autores, as ideias publicadas buscam conciliar devidamente as promessas de aumento de eficiência com os perigos de desumanização da atividade jurídica [1-8].

TJ-PE

Em outra ocasião, defendemos a construção de uma teoria convergente de formas de intervenção jurídica que abordem melhor a interação entre as tecnologias e o ser humano em sociedade, com base nos valores do Estado democrático de Direito [9]. Nesta oportunidade, examinaremos os desafios dessa inovação, acerca do uso de modelos de IA generativa e o respeito à exigência constitucional de fundamentação das decisões judiciais, conforme previsto no artigo 93, IX, da Constituição da República de 1988.

O dever de fundamentação das decisões judiciais exige que todos os julgamentos do Poder Judiciário explicitem as razões e argumentos que levaram à decisão. A fundamentação é essencial para garantir a justiça, evitar arbitrariedades e reforçar a confiança no sistema judicial, conferindo-lhe legitimidade. Permite que as partes envolvidas e a sociedade compreendam as bases jurídicas de uma decisão, contribui para a transparência e o controle sobre o exercício do poder jurisdicional. [10,11].

Caixa-preta, risco de respostas incorretas e vieses

Aqui, identificamos o primeiro problema. No campo do aprendizado de máquinas, as large language models (LLMs) — grandes modelos de linguagem — são classificadas como modelos de redes neurais profundas. Essas redes neurais complexas são treinadas com grandes volumes de dados. O processo de decisão é uma “caixa-preta”, na qual apenas os pares de entradas e saídas são conhecidos, mas não o que acontece entre eles. Tal opacidade dificulta a compreensão de como esses modelos tomam decisões e cria um contrassenso diante da  transparência esperada nas decisões judiciais [12,13].

Além disso, modelos de linguagem, como o ChatGPT, são treinados para gerar texto de maneira semelhante à linguagem humana. Esses modelos de IA aprendem padrões que lhes permitem responder perguntas, compor textos e realizar diversas tarefas relacionadas à linguagem natural. Funcionam como uma escolha complexa de sequência de palavras mais provável, com base em uma massa de dados já processada. Em outras palavras, as LLMs podem apresentar respostas aparentemente corretas, mas que podem não estar, o que constitui o segundo problema [14].

Spacca

O terceiro problema reside na qualidade dos dados de treinamento. Os modelos podem perpetuar vieses presentes nos dados, levando a decisões injustas. Aplicações de IA, como os modelos generativos, têm o potencial de amplificar preconceitos sociais já existentes, devido ao modo como são treinados, com grandes volumes de dados históricos. Esses dados frequentemente contêm os mesmos vieses e desigualdades que a sociedade carrega ao longo do tempo [1,8,15].

Nesse contexto, em que uma tecnologia seja treinada com base em decisões passadas com discriminações por origem, situação econômica, raça ou outras formas de preconceito, torna-se possível que esses padrões enviesados sejam internalizados e replicados em futuras decisões. Assim, em vez de agir como uma ferramenta neutra, o algoritmo pode aplicar critérios tendenciosos, que desfavorecem certos grupos, de modo a agravar injustiças sociais [5,15].

Colapso de modelo e explicabilidade

Estudos recentes alertam também para o risco inevitável de “colapso de modelo”, um processo em que a eficiência dos modelos de IA é comprometida à medida que são treinados com dados gerados por modelos anteriores, frequentemente poluídos (‘data poisoning’).

Esse colapso inviabiliza o avanço da IA generativa pela dificuldade de acesso a dados genuínos e põe em perigo a criatividade global, já que as IAs podem levar a uma estagnação criativa, ao não se produzir conhecimento de forma autêntica. A verdadeira inovação, portanto, permanece dependente da criatividade humana, sempre com uma compreensão crítica dos limites e do papel da IA para se  garantir um futuro justo e equilibrado  [16, 17].

Para conciliar a opacidade das LLMs com a transparência necessária nas decisões judiciais, é essencial adotar estratégias como o desenvolvimento de técnicas de explicabilidade que permitam interpretar e justificar as decisões de IA. Além disso, é crucial mitigar vieses por meio de auditorias regulares e garantir que os dados de treinamento sejam diversificados e representativos. A supervisão humana, tanto na conferência de decisões automatizadas quanto na manutenção da qualidade dos dados, são fundamentais, assim assegurando que a IA seja usada de forma ética e eficaz no sistema judiciário brasileiro [6].

Oportunidades e desafios para o Judiciário

A integração de modelos de IA generativa, como as LLMs, pelo Poder Judiciário brasileiro, apresenta tanto oportunidades quanto desafios significativos. Por um lado, esses modelos têm o potencial de aumentar a eficiência e a rapidez das decisões judiciais, o que contribui para a resolução de processos de maneira mais ágil. Por outro lado, a opacidade inerente a esses modelos, juntamente com os riscos de perpetuação de vieses e o colapso de modelos, coloca em xeque a legitimidade e a justiça nas decisões automatizadas. Portanto, para evitar que essas ferramentas se tornem instrumentos de desumanização ou estagnação criativa, é imperativo adotar uma implementação responsável e cuidadosa da IA. [4-6,12,13,15]

A compreensão exata do que é inteligência artificial e de seus limites é crucial para garantir que a tecnologia seja utilizada como uma ferramenta que complementa, mas não substitui, a criatividade e o julgamento humanos [3,7]. Embora seja uma tecnologia fabulosa e possa desempenhar habilidades impressionantes, a inteligência artificial não possui consciência nem criatividade genuína [17-21]. A criatividade humana continua sendo insubstituível para a verdadeira inovação, e a IA deve ser vista como uma aliada [22] que amplifica essas capacidades, ao invés de uma ameaça, que as suprime, por  meio da delegação de funções próprias dos humanos.

Por fim, a implementação de mecanismos claros de accountability, com a inclusão de supervisão humana, é fundamental para assegurar que a IA no Judiciário seja empregada de forma ética e justa. Somente por meio dessas medidas poderemos garantir que as inovações tecnológicas sirvam para promover um sistema de justiça mais equitativo, transparente e eficiente, sem abrir mão dos valores fundamentais que sustentam o Estado democrático de Direito [1,6,21].

 


[1] https://www.conjur.com.br/2022-mai-11/salomao-tauk-estamos-perto-juiz-robo/

[2] https://www.conjur.com.br/2023-jan-24/automacao-julgamentos-chega-aos-tribunais-eua-estonia/

[3] https://www.conjur.com.br/2023-nov-02/senso-incomum-ainda-questao-robos-direito-case-chatgpt/

[4] https://www.conjur.com.br/2023-nov-20/robo-magistrado-e-o-fim-dos-tempos-juridicos/

[5] https://www.conjur.com.br/2023-dez-15/robos-no-tribunal-papel-da-inteligencia-artificial-no-judiciario/

[6] https://www.conjur.com.br/2024-abr-05/uso-da-ia-no-sistema-de-justica-e-um-dos-grandes-desafios-do-seculo/

[7] https://www.conjur.com.br/2024-jun-11/sentenca-deve-nascer-da-alma-do-magistrado-nao-de-um-algoritmo/

[8] https://www.conjur.com.br/2024-ago-17/juizes-robos-ou-robos-juizes/

[9] https://www.conjur.com.br/2023-mai-08/daniel-martins-ia-poder-judiciario-riscos-oportunidades/

[10] MENDES, Gilmar et al. Curso de direito constitucional. 4. ed. rev. São Paulo: Saraiva, 2009.

[11] BARROSO, Luís Roberto. Judicialização, ativismo judicial e legitimidade democrática. (Syn) thesis, v. 5, n. 1, p. 23-32, 2012.

[12] DOSHI-VELEZ, Finale; KIM, Been. Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608, 2017.

[13] RUDIN, Cynthia. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature machine intelligence, v. 1, n. 5, p. 206-215, 2019.

[14] BROWN, Tom B. Language models are few-shot learners. arXiv preprint arXiv:2005.14165, 2020.

[15] O’NEIL, Cathy. Algoritmos de destruição em massa: como o Big Data aumenta a desigualdade e ameaça a democracia. Santo André: Editora Rua do Sabão, 2020.

[16] SHUMAILOV, I., SHUMAYLOV, Z., ZHAO, Y. et al. AI models collapse when trained on recursively generated data. Nature 631, 755–759 (2024). https://doi.org/10.1038/s41586-024-07566-y

[17] https://www.ecommercebrasil.com.br/noticias/o-futuro-da-humanidade-e-analogico-miguel-nicolelis-no-forum-e-commerce-brasil-2024

[18] HAN, Byung-Chul. Infocracia: digitalização e a crise da democracia. Petrópolis: Vozes, 2022.

[19] SANTAELLA, Lucia. A inteligência artificial é inteligente? São Paulo: Edições 70, 2023.

[20] SANTAELLA, Lucia. Neo-humano: a sétima revolução cognitiva do Sapiens. São Paulo: Paulus, 2022.

[21] SULEYMAN, Mustafa. The coming wave: technology, power, and the twenty-first century’s greatest dilemma. New York: Crown, 2023.

[22] O autor declara que fez uso de IA generativa (Chat GPT) para estruturação dos parágrafos e revisão de texto.

 

Autores

  • é juiz do Trabalho no TRT da 12ª Região (SC), graduado em Direito e em Ciência de Dados e especialista em Direito da Proteção e Uso de Dados pela Pontifícia Universidade Católica de Minas Gerais.

Encontrou um erro? Avise nossa equipe!