Opinião

Regulamento europeu sobre IA e suas implicações no sistema de Justiça

Autor

  • Diego Dall’ Agnol Maia

    é professor advogado doutorando em Direito mestre em Direito especialista em inteligência artificial digitalização e Algoritimização da Justiça especialista em Direito Constitucional e Direito Administrativo e MBA em Gestão e Planejamento Educacional.

    View all posts

23 de julho de 2024, 18h25

No último dia 13 de julho, o Parlamento Europeu aprovou o Regulamento nº 2024/1689, marcando um avanço significativo na regulamentação do uso de inteligência artificial dentro da União Europeia. Reconhecendo o potencial transformador da IA em diversas indústrias e setores sociais, o regulamento destaca os benefícios econômicos, ambientais e sociais que a teconologia pode oferecer, incluindo melhorias em previsões, otimização de operações, personalização de soluções digitais e progressos em áreas críticas como cuidados de saúde, agricultura, segurança alimentar, educação e energia.

Parlamento Europeu

Contudo, junto com os benefícios, surgem preocupações significativas sobre os impactos sociais e éticos da IA. Por essa razão, o regulamento europeu enfatiza a necessidade de desenvolver e aplicar a inteligência artificial em consonância com os valores fundamentais e os direitos humanos consagrados nos tratados e na Carta dos Direitos Fundamentais da União Europeia.

Esse ponto leva a uma reflexão sobre a experiência da UE, uma vez que o mundo globalizado compartilha importantes questões envolvendo a necessidade de regulamentação do uso da IA e o interesse em definir os limites jurídicos para as admissões de proibições.

Portanto, o foco deste estudo é a constatação da existência de uma recente e relevante regulamentação sobre a IA e das regras jurídicas que delimitam seu uso lícito na União Europeia, prevenindo usos prejudiciais ou discriminatórios, e refletir sobre suas implicações no sistema de Justiça. Por exemplo, o regulamento europeu proíbe sistemas de IA que empregam técnicas manipuladoras para influenciar substancialmente o comportamento humano, bem como aqueles que realizam avaliações ou classificações de pessoas com base em características pessoais, resultando em tratamento injusto ou desproporcional.

“Artigo 5º
Práticas de IA proibidas
Estão proibidas as seguintes práticas de IA:
b) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore vulnerabilidades de uma pessoa singular ou de um grupo específico de pessoas devido à sua idade, incapacidade ou situação socioeconômica específica, com o objetivo ou o efeito de distorcer substancialmente o comportamento dessa pessoa ou de uma pessoa pertencente a esse grupo de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa ou a outra pessoa;
c) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para avaliação ou classificação de pessoas singulares ou grupos de pessoas durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas, inferidas ou previsíveis, em que a classificação social conduza a uma das seguintes situações ou a ambas:
i) Tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos de pessoas em contextos sociais não relacionados com os contextos nos quais os dados foram originalmente gerados ou recolhidos,
ii) Tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos de pessoas que seja injustificado ou desproporcional face ao seu comportamento social ou à gravidade do mesmo.
Diante desse cenário, entende-se que essas disposições são fundamentais para assegurar que a IA seja uma tecnologia centrada no ser humano, visando beneficiar indivíduos e melhorar seu bem-estar, ao mesmo tempo em que protege contra abusos e discriminações potenciais. No entanto, a implementação eficaz dessas normas enfrenta desafios significativos, especialmente no contexto do sistema de justiça.”

Algoritmo e transparência

A partir do recorte delineado, surge uma primeira reflexão a respeito dos riscos do uso desarrazoado da IA no sistema de Justiça: o risco da opacidade algorítmica e da falta de transparência.

Spacca

Com a possibilidade de ampliação do uso da IA no sistema de Justiça, essa nova realidade traz o desafio da opacidade algorítmica dos sistemas automatizados. Define-se como opacidade algorítmica a dificuldade em compreender completamente como os algoritmos tomam decisões.

De forma direta, trata-se de um problema com a falta de transparência, especialmente em contextos judiciais, onde a justiça depende da transparência, clareza e fundamentação lógica para a validade da decisão. Logo, a opacidade algorítmica pode obscurecer os critérios exatos pelos quais uma decisão foi alcançada, dificultando a conciliação do seu uso com preceitos fundamentais, como o devido processo legal, entre outros.

No Brasil, no dia 14 de maio de 2024, o presidente do Supremo Tribunal Federal, Luís Roberto Barroso, afirmou que, atualmente, o STF usa a inteligência artificial para agrupar os processos por temas e para verificar se os recursos abordam questões que já foram consolidadas em temas de repercussão geral, não devendo, portanto, subir para a corte. Para o futuro, disse o ministro, a ideia é aprofundar o uso de inteligência artificial na identificação e no respeito aos precedentes vinculantes. Outro objetivo é desenvolver sistemas que resumam processos com qualidade, sempre com a supervisão de um magistrado. Por exemplo, um caso com 20 volumes pode ser sintetizado em cinco páginas para um ministro do Supremo [1].

O que se problematiza é o risco da incerteza sobre a operação algorítmica realizada por meio da IA para se chegar ao resultado de um caso ser resumido a cinco páginas para um ministro do Supremo. Deve-se considerar que esta síntese do caso produzido pela IA será um elemento determinante para compreensão e, possivelmente, formação da convicção do juiz no momento de produzir a sentença, portanto, integrando o conjunto de atos no processo que devem obedecer ao devido processo legal, o que inclui a transparência a respeito dos meios pelos quais o magistrado chegou à conclusão dos pontos controvertidos e de relevância para o debate sobre o direito.

Ademais, anota-se que a falta de transparência não apenas compromete o direito fundamental ao devido processo legal, mas também pode amplificar o risco de injustiças, especialmente contra grupos minoritários ou socialmente vulneráveis em razão do enviesamento na programação ou dos dados fornecidos para o treinamento da máquina.

Por exemplo, se um algoritmo de IA não divulgar explicitamente como chegou a uma conclusão, pode ser difícil para as partes afetadas entenderem e contestarem os dados destacados como fundamentais na síntese do processo e que serão levados em consideração na formação da decisão. Sem dúvida, o risco apontado pode minar a confiança pública no sistema judicial e aumentar a percepção de injustiça.

Padronização excessiva

Por sua vez, ao analisar o regulamento da União Europeia, constata-se outro desafio crítico: o risco de padronização excessiva das decisões judiciais.

Sabemos que a prestação jurisdicional deve ser em tempo razoável, efetiva e com eficiência. Não é por outra razão que se percebe que, na discussão sobre a utilização da IA no sistema de Justiça, está presente o interesse de aumentar a velocidade dos julgamentos, diminuir a quantidade de processos e, ao mesmo tempo, promover a redução dos custos estatais na manutenção do sistema litigioso.

Certamente, não se pode negar que a IA é capaz de processar grandes volumes de dados e aplicar algoritmos estatísticos para tomar decisões (uma função preditiva). Contudo, ao mesmo tempo, ela pode inadvertidamente promover uma uniformização a respeito dos diversos fatos sociais e afastar uma das características essenciais dos pronunciamentos judiciais, que é o olhar singular para os fatos e o tratamento individualizado das circunstâncias que envolvem o conflito.

No Brasil, a Lindb (Lei de Introdução às Normas do Direito Brasileiro), no artigo 5º, prescreve que a atuação do juiz atenderá aos fins sociais a que ela se dirige e às exigências do bem comum. Logo, a padronização das decisões poderá incorrer em riscos da ineficácia da prognose legislativa ao estruturar o sentido da atuação jurisdicional. O risco da padronização se apresenta porque os sistemas de IA tendem a aplicar decisões baseadas em padrões estatísticos gerais, sem considerar as nuances individuais e os contextos específicos de cada caso.

O cenário cogitado desperta a necessidade de atenção sobre a padronização excessiva, que pode levar a uma falta de flexibilidade no sistema judicial, ignorando fatores atenuantes ou circunstâncias especiais que deveriam ser consideradas na aplicação da lei.

Imagine-se, em casos criminais, a determinação da sentença ideal deve levar em conta não apenas a natureza do crime, mas também o histórico do réu, a possibilidade de reabilitação e outros fatores humanos que um algoritmo pode não capturar adequadamente ou, pior, dado a inclinação gerada pelos dados utilizados no treinamento da IA, poderá ocorrer o reforço dos estigmas sociais contra grupos vulneráveis sujeitos à marginalização do direito – nesse contexto a IA pode aprofundar violências simbólicas ao perpetuar estereótipos e preconceitos existentes na sociedade.

A partir do Regulamento nº 2024/1689 do Parlamento Europeu, observa-se que o uso não regulamentado de sistemas de IA no sistema de Justiça também pode aumentar o risco de violações dos direitos fundamentais e discriminação. Algoritmos de IA, se não forem cuidadosamente projetados e monitorados, podem reproduzir e até amplificar preconceitos existentes na sociedade.

Inspiração

Diante do quadro apresentado, parece-nos que o regulamento europeu pode servir como norma inspiradora para ampliar o debate a respeito da regulamentação da IA no Brasil e, especificamente, sobre sua utilização no sistema de justiça, uma vez que é recomendável a existência de organismos rígidos de supervisão e o controle eficaz dos sistemas de IA utilizados no sistema de Justiça para mitigar riscos.

Isso inclui a necessidade de estabelecer padrões claros de transparência algorítmica, garantindo que os processos de tomada de decisão automatizados sejam compreensíveis e auditáveis. A transparência algorítmica envolve não apenas a divulgação dos critérios e dados usados para treinar os modelos de IA, mas também a capacidade de revisar e contestar as decisões tomadas pelos algoritmos.

Além disso, é crucial pensarmos na forma de implementar mecanismos robustos de prestação de contas para os operadores de sistemas de IA no contexto judicial. Isso significa garantir que decisões automatizadas sejam sempre sujeitas a revisão humana e ética, especialmente em casos complexos ou sensíveis. Os juízes e profissionais do direito devem ter a capacidade de entender como a IA contribui para suas decisões e ter a autoridade para invalidar ou ajustar decisões que parecem injustas ou incorretas.

Em parte, para mitigar eficazmente esses riscos, demonstra-se razoável investir em educação e formação ética e digital para todos os envolvidos no sistema de Justiça. Isso inclui não apenas juízes e advogados, mas também funcionários judiciais, defensores públicos e outros profissionais que possam interagir com sistemas de IA no exercício de suas funções.

No tempo em que vivemos, demonstra-se pertinente repensar o modelo de formação jurídica e, desse modo, enfatizar ou resgatar o ensino da ética à luz dos princípios de direitos humanos e justiça social direcionado ao uso da IA, garantindo que as decisões automatizadas sejam consistentes com os valores fundamentais da democracia e da igualdade e, principalmente, que o ser humano seja capaz de identificar inclinações prejudiciais ou delírios da IA e assumir o controle das decisões para evitar o esvaziamento da condição humana e perpetuação da banalidade do mal.

Sendo assim, é crucial realizar auditorias regulares e independentes dos sistemas de IA implementados no sistema de Justiça. Essas auditorias devem avaliar não apenas a precisão e a eficiência dos algoritmos, mas também sua conformidade com as normas éticas e legais estabelecidas. Isso pode ajudar a identificar e corrigir eventuais vieses ou falhas nos sistemas de IA antes que eles causem danos significativos.

Em conclusão, o Regulamento nº 2024/1689 representa um marco importante na regulamentação da IA na União Europeia e sua implementação no contexto do sistema de Justiça pode servir como parâmetro para a regulamentação brasileira, demonstrando que se requer uma abordagem cuidadosa e multifacetada. Superar os desafios associados à opacidade algorítmica, padronização das decisões e potenciais violações dos direitos fundamentais exigirá esforços contínuos para garantir que a IA seja desenvolvida e utilizada de maneira ética, transparente e responsável.

A proteção dos direitos humanos e a promoção da justiça social devem ser prioridades fundamentais em todas as etapas do desenvolvimento e aplicação da IA assegurando que essa tecnologia inovadora beneficie a sociedade como um todo, sem comprometer os valores essenciais da família humana.

 


Referências:

BRASIL. Congresso. Presidência da República. Decreto-Lei nº 4657, de 04 de setembro de 1942. Lei de Introdução às normas do Direito Brasileiro.

KLOPFER, Philip; MITCHELL, Tom. Artificial Intelligence: A Guide for Thinking Humans. New York: Farrar, Straus and Giroux, 2019.

RODAS, Sérgio. Judiciário deve usar inteligência artificial para resumir ações e fazer minutas de decisões, diz Barroso. Disponível em: https://www.conjur.com.br/2024-mai-14/judiciario-deve-usar-ia-para-resumir-acoes-e-fazer-minutas-de-decisoes-diz-barroso/. Acesso em: 18 jul. 2024.

RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 4. ed. Upper Saddle River: Prentice Hall, 2020.

UNESCO. Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO, 2021. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000379920. Acesso em: 18 jul. 2024.

UNIÃO EUROPEIA. Regulamento Europeu nº 1689, de 13 de julho de 2024. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial)Texto relevante para efeitos do EEE. Parlamento Europeu, Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=OJ:L_202401689. Acesso em: 18 jul. 2024.

 


[1] https://www.conjur.com.br/2024-mai-14/judiciario-deve-usar-ia-para-resumir-acoes-e-fazer-minutas-de-decisoes-diz-barroso/

Autores

  • é professor, advogado, doutorando em Direito, mestre em Direito, especialista em inteligência artificial, digitalização e Algoritimização da Justiça, especialista em Direito Constitucional e Direito Administrativo e MBA em Gestão e Planejamento Educacional.

Encontrou um erro? Avise nossa equipe!