Direto do Carf

O uso da inteligência artificial no Carf

Autores

  • é mestrado em Direito pela UFRGS (Universidade Federal do Rio Grande do Sul) e doutorado em Direito na área de Concentração de Direito Tributário pela PUC-SP (Pontifícia Universidade Católica de São Paulo) doutorado-sandwich na Ludwig-Maximilians Universität em Munique doutor em Filosofia pela PUC-RS árbitro da Lista brasileira do Sistema de Controvérsias do Mercosul professor titular e membro Permanente do Programa de Pós-Graduação em Direito PPGG da PUC-RS e doutor em Filosofia pelo PPGG da PUC-RS.

    Ver todos os posts
  • é conselheiro do Carf doutorando em Controladoria e Contabilidade pela Universidade de São Paulo doutor em Direito Econômico Financeiro e Tributário pela USP mestre em Direito Comercial pela USP professor do Instituto Brasileiro de Direito Tributário (IBDT) da Fundação Instituto de Pesquisas Contábeis Financeiras e Atuariais (Fipecafi).

    Ver todos os posts

25 de dezembro de 2024, 8h00

O ano de 2024 ainda não terminou, mas já prenuncia mudanças importantes para o Carf, que não somente terá uma nova sede física, mas verá a inauguração de uma nova fase, denominada de Administração 3.0. Ele será ainda mais tecnológico, mais rápido e inteligente. Será lançado o sistema de Inteligência Artificial em Recursos Administrativos (Iara).

O sistema Iara

Não se trata apenas do uso intensivo de recursos eletrônicos, digitalização ou automatização. Haverá o uso de recursos de inteligência artificial para classificar processos, interpretar relatórios, identificar as alegações dos contribuintes, consultar jurisprudências e sugerir decisões. Todo esse esforço está sendo coordenado pela maior empresa pública de tecnologia da informação do mundo, o Serpro (Serviço Federal de Processamento de Dados).

Não se trata de um julgamento por um juiz-robô ou conselheiro-robô, mas de um sistema assistivo aos julgadores para que possam melhor julgar, substituindo o trabalho repetitivo de classificação, elaboração de relatórios, pesquisas. O Conselheiro teria mais tempo para se dedicar à elaboração do seu voto.

As metas previstas no uso desse sistema são ambiciosas, estima-se o auxílio ao julgamento de 75 mil recursos administrativos, com a redução de tempo de julgamento de 6 anos para apenas 01 (um) ano. A Iara utilizará uma base de 500 mil julgamentos do Carf, além de suas Súmulas, bem como da jurisprudência do STJ e STF.

A utilização crescente da inteligência artificial na fiscalização, em processos administrativos e judiciais é um fato crescente e impactante no Direito. O STF lançou recentemente o Módulo de Apoio para Redação com Inteligência Artificial, gentilmente denominado de Maria, que será um sistema de inteligência artificial generativa, a ser utilizada para a elaboração de textos para resumo de votos, relatórios em processos recursais e análise inicial de processos de reclamação, podendo ainda, no futuro, permitir a identificação automática de precedentes relacionados.

O uso exponencial da inteligência artificial na economia, na sociedade e no Direito, possui consequências ainda não completamente descortinadas. Até que ponto a sociedade será transformada pelo uso intensivo de IA em todas as esferas sociais? Seria a IA mais uma inovação técnica evolutiva dos modelos atuais existentes ou uma disrupção para padrões ainda não compreendidos em sua plenitude?

O uso de algoritmos para o tratamento de recursos judiciais já tem sido utilizado pelos tribunais, inclusive superiores, chamando a atenção para o estudo de uma área pouco conhecida pelos juristas: algoritmos jurídicos. As vantagens do uso de inteligência artificial no Direito são claras, contudo, existem sérias dúvidas sobre o adequado alinhamento entre os algoritmos de racionalidade jurídica e a sistema de proteção dos direitos fundamentais dos contribuintes.

Spacca

O STF desde algum tempo, tem utilizado com sucesso os algoritmos de classificação dos recursos extraordinários, conforme os temas de repercussão geral [1], denominado de Victor. Ele é capaz de analisar mais 350 novos processos por dia, que possuem uma média de 60 páginas entre textos e imagens. Ele é utilizado para classificar mais de 14 mil processos, de um total de 200 mil processos históricos.

A tarefa exigia a solução de diversos problemas práticos. Inicialmente, era preciso extrair, transformar e reconhecer os dados de um processo. Nessa primeira etapa foram visadas cinco espécies de peças: acórdão, recurso extraordinário (RE), agravo de recurso extraordinário (ARE), despacho e sentença. Os resultados alcançaram uma surpreendente taxa de assertividade de 93% [2]. O STJ tem aplicado IA na classificação de processos, com uma taxa de acurácia de 86% para a classificação dos processos.

Uso da IA em casos de maior complexidade

Um problema mais sério está em se cogitar no uso de algoritmos para decisão em casos de maior complexidade. Nesse caso ofenderia algum princípio constitucional o uso de algoritmos para decisões judiciais de mérito? Estariam os princípios do juiz natural, contraditório, ampla defesa, devido processo legal, entre outros protegidos?

O uso de algoritmos para decisões automatizadas ofenderia a exigência de motivação da sentença, como um dos pilares da ampla defesa? Tais considerações ainda exigirão reflexão por parte da doutrina e jurisprudência.

Cabe questionar também, se no caso não haveria responsabilidade do agente que programou o algoritmo de IA ou quem supervisiona estes dados, pois como ele é alimentado e vai se alimentando conforme as experiências que têm o primeiro a influenciar a sua composição seria o programador [3]. Este é o chamado viés de preenchimento.

O problema dos algoritmos enviesados ou discriminatórios é real e preocupante, assim uma análise sobre a estruturação de algoritmos bem-formados (well designed) se torna um imperativo para análise jurídica da IA.

Cass Sunstein entende, ao contrário, que a IA auxilia a reduzir erro humano e desvios cognitivos, por meio de mecanismos objetivos de decisão [4]. Na sua opinião o uso de mecanismos automáticos de decisão seria uma proteção contra automatismos mentais dos juízes e seu subjetivismo.

O referido autor ainda argumenta que os algoritmos permitem que se lancem luzes sobre os modelos argumentativos utilizados no pronunciamento de decisões [5], reduzindo o subjetivismo. Para o autor algoritmos bem-desenhados (well-designed) poderiam evitar vieses cognitivos [6] em suas mais variadas formas (cognitive biases), tal como aqueles baseados em raça [7].

Essas considerações são importantes, desde que incluídas em um modelo de utilização da IA sob diretrizes éticas, centrada na promoção da dignidade humana ou, nas palavras da União Européia, “humano-centrada” (Human-Centric AI) [8]. O uso de algoritmos com aprendizado de máquina tem sido cada vez mais utilizados em apoio ao Direito, no desenvolvimento de soluções técnicas para diversas situações jurídicas.

É inescapável, contudo, que eles reproduzam ou gerem erros de decisão, por reproduzirem automatismos mentais de que os programa ou mesmo comportamentos discriminatórios. Estes erros, voluntários ou não, somente podem ser evitados se forem transparentes ao conhecimento, controlados, passíveis corrigidos e de serem revisados antes de sua implementação.

O entendimento de que a decisão jurídica não pode ser considerada uma atividade racional pura impõe cautela sobre a adoção indiscriminada, especialmente quando pode ferir os direitos fundamentais do contribuinte. De outro lado, se impõe um grande questionamento sobre o impacto do uso de decisões automatizadas para a proteção da ampla defesa, do defeso processo, do princípio do juiz natural e tantos outros princípios que garantem um direito fundamental a um processo tributário justo.

Vale notar que há casos julgados com certa frequência no Carf em que a complexidade reside na situação fática. A título de ilustração, em diversos casos envolvendo a amortização de ágio, a complexidade se encontra nas operações de reorganização societária que originaram a aquisição de participações societárias com ágio ou que possibilitaram a união entre investidora e investida. Em tais casos, a avaliação pessoal de cada conselheiro julgador remanesce imprescindível.

Em outros casos, a complexidade está na interpretação das normas tributárias. Em muitos casos, a norma não traz uma proibição ou autorização expressa da realização de um determinado negócio jurídico, de forma que mais de uma interpretação pode ser considerada como razoável. Mais uma vez, tratam-se de casos em que a utilização da inteligência artificial ainda não será plena.

Conclusões

O uso da IA trará uma série de benefícios ao julgamento dos processos administrativos tributários, uma vez que haverá a possibilidade de julgamento de um maior número de processos.

Todavia, no que tange aos casos de maior complexidade, não restam dúvidas de que as particularidades fáticas e as potenciais divergências de interpretação de uma norma jurídica que não contenha uma proibição ou autorização expressa, o uso da inteligência artificial ainda é mais restrito.

 

*Este texto não reflete a posição institucional do Carf, mas, sim, uma análise dos seus precedentes publicados no site do órgão, em estudo descritivo, de caráter informativo, promovido pelos seus colunistas.

_________________________________________________________

[1] PORTO, Fábio Ribeiro. O Impacto da Utilização da Inteligência Artificial no Executivo Fiscal. Case study of Rio de Janeiro State Court of Justice. In FERNANDES, Ricardo V. C. e CARVALHO, Ângelo Gamba P. (coord.). Tecnologia Jurídica & Direito Digital – II Congresso Internacional de Direito, Governo e Tecnologia. Belo Horizonte: Fórum, 2018, p. 89-94.

[2] PORTO, Fábio Ribeiro. O Impacto da Utilização da Inteligência Artificial no Executivo Fiscal. Case study of Rio de Janeiro State Court of Justice. In FERNANDES, Ricardo V. C. e CARVALHO, Ângelo Gamba P. (coord.). Tecnologia Jurídica & Direito Digital – II Congresso Internacional de Direito, Governo e Tecnologia. Belo Horizonte: Fórum, 2018, p. 94.

[3] HACKER, P., KRESTEL, R., GRUNDMANN, S. et al. Explainable AI under contract and tort law: legal incentives and technical challenges. Artif Intell Law (2020). Disponível em: <https://doi.org.ez94.periodicos.capes.gov.br/10.1007/s10506-020-09260-6> Acesso em 25 de março. 2020.

[4] SUNSTEIN, Cass R. Algorithms, Correcting Biases. Forthcoming, Social Research, 2018. Disponível em  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300171, acesso em 29.04.2019, às 02:23.

[5]Use of algorithms will reveal, with great clarity, the need to make tradeoffs between the value of racial (or other) equality and other important values, such as public safety”; ver in SUNSTEIN, Cass R. Algorithms, Correcting Biases. Forthcoming, Social Research, 2018. Disponível em  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300171, acesso em 29.04.2019, às 02:23, p. 05.

[6] SUNSTEIN, Cass R. Algorithms, Correcting Biases. Forthcoming, Social Research, 2018. Disponível em  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300171, acesso em 29.04.2019, às 02:23.

[7]If the goal is to make accurate predictions, use of algorithms can be a great boon for that reason. For both private and public institutions (including governments all over the world), it can eliminate the effects of cognitive biases. Suppose that the question is whether to hire a job applicant; whether a project will be completed within six months; whether a particular intervention will help a patient who suffers from heart disease. In all of these cases, some kind of cognitive bias may well distort human decisions. There is a good chance that availability bias or one of its cousins will play a large role, and unrealistic optimism, embodied in the planning fallacy, may aggravate the problem. Algorithms have extraordinary promise. They can save both money and lives”; ver in SUNSTEIN, Cass R. Algorithms, Correcting Biases. Forthcoming, Social Research, 2018. Disponível em  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300171, acesso em 29.04.2019, às 02:23, p. 05.

[8] Veja-se o Ethics Guidelines da European Commission’s High-Level Expert Group on Artificial Intelligence (AI HLEG. Disponível: https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai. Acesso em 01.05.19, às 17:58h.

Autores

  • é professor titular na PUC-RS, doutor em Direito (PUC-SP) e em Filosofia (PUC-RS), advogado e autor dos livros Curso de Direito Tributário e Direito Tributário e Análise Econômica do Direito (finalista do Prêmio Jabuti).

  • é professor concursado da Faculdade de Economia, Administração e Contabilidade da Universidade de São Paulo (FEA/USP) e da Escola de Administração de Empresas de São Paulo da Fundação Getúlio Vargas (Eaesp/FGV), conselheiro do Conselho Administrativo de Recursos Fiscais (Carf) e do Conselho de Recursos do Sistema Financeiro Nacional (CRSFN), doutorando em Controladoria e Contabilidade pela Universidade de São Paulo (USP), doutor em Direito Econômico, Financeiro e Tributário pela USP, mestre em Direito Comercial pela USP e ex-presidente da Aconcarf.

Encontrou um erro? Avise nossa equipe!