O Big Data e a lógica da performance quantitativa no Poder Judiciário
5 de setembro de 2015, 8h00
Big Data é o termo empregado para designar um conjunto de dados tão grande e complexo, capaz de reunir e processar uma quantidade de informações que leva a acreditar que estamos diante da totalidade do que se tem disponível acerca de determinado tema. Tal conceito funda-se sobre aquilo que se convencionou chamar “5 Vs”: os aspectos velocidade, volume e variedade, articulados com os fatores veracidade e valor.
Eis, portanto, “o novo ovo de Colombo do paradigma da transparência”. Essa afirmação, do pensador sul-coreano Byung-Chul Han no livro Psicopolítica, pode nos auxiliar a compreender o efeito da proposta da Fundação Getulio Vargas de ler o Supremo em Números. O terceiro relatório, publicado recentemente pela FGV-Rio, aponta para o "Supremo e o Tempo".
Segundo os dados contidos no terceiro relatório, especificamente sobre os pedidos de vista (ocasião em que algum integrante do tribunal pede para analisar os autos, interrompendo o julgamento após a apresentação de um ou mais votos), pode-se concluir que: “Os pedidos de vista causam demora significativa nos processos. (a) O regimento interno do STF determina que os pedidos sejam devolvidos em menos de 30 dias. Mas eles duram em média 346 dias. Os pedidos ainda não devolvidos já levam em média 1095 dias. (b) Há muitos processos com mais de 10 anos em pedido de vista. (c) Os ministros que mais pedem vista são, nesta ordem: Dias Toffoli, Luiz Fux, Nelson Jobim”.
Já retornaremos ao tema, mas antes cabe dizer que a leitura estatística não é novidade. A proposta de conhecer as instituições, o mercado e, especialmente, os consumidores é desenvolvida, há muito, por diversas empresas. A Acxiom, por exemplo, oferece uma visão de 360º do objeto analisado e, com isso, proporciona ações mais significativas na obtenção dos fins pretendidos.
Por meio do processo eletrônico e do acesso aos sites dos tribunais, é possível obter a dita transparência do sistema jurídico, em especial das decisões judiciais, apurando-se as demoras, os gargalos, enfim, acompanhar os big-dados a partir de novas coordenadas. Como se sabe, antigamente, um pesquisador demoraria muito tempo, desde uma perspectiva específica, para apontar o que já está pronto e sempre atualizado pelo que se denomina de “dataísmo”. Assim, saltamos da escassez de estatística para o totalitarismo dos dados, em que os bancos de dados são apurados na lógica objetiva, relegando-se o subjetivismo, a complexidade e a contingência. Os números podem falar por si mesmos, como se não houvesse uma teoria contextual para lermos os dados. Significa, em síntese, o “império do objetivismo”, sem qualquer espaço para a hermenêutica.
Entretanto, as explicações fornecidas são relevantes apenas até certo ponto. Servem para demonstrar as situações objetivas com sobras, renunciando ao sentido da narrativa que lhe sucede. A crença na mensurabilidade e quantificação de toda a vida judicial domina a era digital. Entretanto, novamente com Han, podemos afirmar que os dados e os números não nos contam nada sobre os casos, pois os números não são uma narração. Mesmo que divididos por critérios e categorias, diante da pluralidade de questões postas em julgamento, sua potencialidade é parcial e sujeita à proposta básica.
Promovem, como, aliás, já acontecia com o indicativo de Metas do Conselho Nacional de Justiça, a lógica da performance, ou dos resultados, em que os sujeitos se autorregulam e se vigiam, transpondo o limite da decisão para instaurar o da competição. Cada decisão, cada demora, cada vista passa a ser “monitorada” pelo mecanismo tecnológico eficiente. Os ministros são ranqueados, de maneira que a performance quantitativa passa a ocupar o lugar da qualidade, tida como algo contingente.
O Big Data do Poder Judiciário vem reforçado pelo discurso da transparência, baluarte da informação, e se propõe a potencializar a eficiência das instituições. No caso do sistema jurídico, reconfigura-se o problema da decisão judicial em razão das variáveis que exsurgem no campo da política judiciária. É nesse contexto que a pressão pelos resultados chega, de vez, à mais alta corte do país. O conhecimento absoluto, mensurável e quantificável aponta correlações secretas, ritmos diferentes, antes invisíveis, com o risco de transformar correlações em causalidades.
Alguns ministros são atravessados pela transparência dos números. Por certo, podemos verificar que alguns promovem determinado “ativismo por omissão”. Muito pedidos de vista se dão quando o “visteiro” já perdeu a votação. Acontece que, ao se negar a devolver os autos, o pedido de vista impede que a deliberação final se conclua. É o que ocorreu, recentemente, no caso do financiamento de campanhas.
Todavia, se o Big Data do Judiciário pode ser visto como instrumento de apoio, isso não significa que se possa, por suas correlações, fomentar a transformação da “lógica do acontecimento” que deveria presidir as decisões judiciais, em especial do STF, em “lógica do imperativo da velocidade e dos números”. Claro que podemos ter expectativas de comportamento, assim como nos EUA (Supreme Court Database), mas não devemos esperar nada além disto: o estatisticamente provável. O Big Data representa um novo elemento no contexto jurídico. Tudo indica que ele veio para ficar, apesar de não podermos, ainda, avaliar todos os seus efeitos. Ele nos contará, como já contou, o que vem se passando, numericamente, nos tribunais brasileiros. Tais dados, entretanto, não se confundem com a realidade. Além do retrocesso consistente na redução do conhecimento de algo à sua simples quantificação, ele se apresenta como uma nova versão do Big Brother, que — na sua busca pela transparência — não contempla a complexidade do mundo vida.
Encontrou um erro? Avise nossa equipe!