Opinião

Como o ChatGPT pode destruir sua carreira jurídica?

Autor

  • Gabriel Carnaval

    é advogado especialista em Direito Digital pós-graduando pela Universidade do Estado do Rio de Janeiro (Uerj) aluno especial na Faculdade de Direito da Universidade de São Paulo (FDUSP) legal consultant em privacidade e proteção de dados da OAB-SP pesquisador no Ieausp e Legal Grounds Institute.

    View all posts

6 de agosto de 2023, 13h20

Este texto não foi escrito pelo ChatGPT
Recordo de ter assistido a uma palestra de Jordan Peterson, logo no início deste ano peculiar de 2023, a respeito do lançamento do ChatGPT, o já conhecido chatbot online de inteligência artificial desenvolvido pela OpenAI (empresa que ostenta a marca registrada [1]).

Jordan é um psicólogo clínico canadense que desenvolveu suas pesquisas para o campo da psicologia analítica. Entre dois de seus livros publicados, destaco 12 regras para a vida e Para além da Ordem. Ambas as obras possuem cunho de livros típicos de estilo do it yourself, que mostram passos para se viver uma vida de verdade, ainda que você não tenha conquistado nada de tão interessante no presente momento.

Retomando, o psicólogo indagava sua plateia a respeito da inteligência superior do chatbot da OpenAI quando comparado com os humanos. Em sua visão, o ChatGPT era muito mais inteligente do que um ser humano e isso seria um xeque-mate na disputa homem versus máquina.

A fala de Jordan foi repercutida em toda a internet, especialmente nas redes sociais, ambiente ideal para sintetizar argumentos chamativos. Fato é que hoje contemplamos uma era na qual o conhecimento, independentemente de sua qualidade, está disponível para qualquer pessoa que tenha um aparelho apto a se conectar com a internet.

O que preocupa é a maneira como as pessoas, influenciadas por discursos como o de Jordan, estão assimilando a inteligência artificial. Sobretudo os advogados.

O que é verdade sobre inteligência artificial?
O próprio nome já não ajuda muito. Pretende antropomorfizar algo que é pura lógica computacional em um algoritmo. Os acadêmicos também não são muito bons em traduzir suas linguagens de laboratório para a língua do dia a dia, o que distancia as pessoas da verdadeira funcionalidade por trás da inteligência artificial.

Ao longo dos últimos 70 anos, os modelos de inteligência artificial têm sido desenvolvidos (entre grandes investimentos e os chamados "invernos da IA").

Inicialmente, esses modelos baseavam-se na "representação do conhecimento", onde possuíam uma estrutura pré-definida com informações específicas. Por exemplo, uma imobiliária poderia utilizar um sistema para classificar o preço de imóveis em um bairro nobre carioca com parâmetros já definidos, como tamanho do imóvel, região e vagas de garagem. Esses modelos eram altamente explicáveis, permitindo compreender como chegavam a determinados valores.

Contudo, a partir da primeira década dos anos 2000, houve um notável investimento nos chamados "data systems", que são modelos treinados a partir de uma imensa quantidade de dados. Um exemplo comum são as redes neurais artificiais utilizadas no reconhecimento facial. Esses modelos fundamentam-se em padrões, como a capacidade da IA de identificar se a população do centro-oeste brasileiro aprecia feijoada. No entanto, possuem o que chamamos de "caixas pretas", ou seja, é difícil, senão impossível, descobrir como o algoritmo chegou a determinado resultado de saída.

Essa mudança para os "data systems" trouxe benefícios em termos de capacidade preditiva e complexidade de tarefas que a IA pode realizar. Porém, o preço pago é a perda de explicabilidade em alguns casos, o que pode ser uma preocupação em aplicações onde a transparência e a compreensão dos resultados são essenciais.

Todavia, é consenso entre os cientistas da computação, as pessoas por trás da IA, de que falta descobrirmos um método de atribuir "senso comum de aprendizado" para o computador.

Quando crianças, aprendemos a identificar cachorros de maneira separada das árvores, e sabemos identificar quando nossos pais estão bravos pelos tons de suas vozes. Na vida adulta, sabemos identificar problemas em nossos carros apenas pelo som da ignição, ou também sabemos cozinhar algo do zero, com uma pitada de criatividade. Embora essas tarefas sejam relativamente fáceis para nós, torna-se impossível aplicar esse mesmo senso de aprendizado para a máquina.

É verdade que já existem técnicas muito avançadas de deep learning que podem nos ajudar em diversas tarefas do dia a dia, incluindo os modelos mais recentes presentes no ChatGPT.

A sigla GPT significa generative pre-trained transformers, o que poderíamos para traduzir para: um modelo que transforma uma sequência em uma outra. Os modelos Transformers (não são aqueles que você está pensando, infelizmente) se tornaram uma abordagem inovadora para os cientistas construírem modelos de IA que gerassem textos, imagens, vídeos e áudios como se fossem feitos por humanos. Passamos a chamar esse tipo de modelo de IA generativa.

Pensamos no exemplo da tarefa realizar um memorando jurídico. Digamos que você queira redigir um memorando com baixo nível de complexidade, mas está hiper atarefado e decide utilizar o Chat GPT para exercer suas atividades privativas da advocacia. Você insere o comando (input) e o chatbot lhe entrega a primeira versão de seu memorando (output). Por mais que não pareça, existe um mecanismo inovador que permitiu que essa petição possuísse tons de "human made".

Modelos de IA generativa geralmente utilizam diversas camadas de "mecanismo da atenção", o que permite para o chatbot da OpenAI inserir contexto para o output da sequência de linguagem através de duas funções: o gerador e o discriminador. O gerador é parte da função do GPT de criar uma espécie de sentença malfeita que assemelhe ao contexto do comando do input. O discriminador utiliza essa sentença do codificador para reproduzir o output, que seria o a sentença que assemelhe ao contexto e linguagem natural humana.

A grande faceta desses modelos estão em montar diversas sequências em paralelo. A função primordial do ChatGPT é a de dar sentido para as palavras, não que elas necessariamente fazem sentido. Isso explica o que chamam de “alucinação” do GPT, mas que na realidade apenas é uma técnica de aprendizado profunda da máquina para resolver problemas de processamento de idioma natural.

Como o ChatGPT pode arruinar sua carreira jurídica?
Como a grande onda do momento, não demoraria para que advogados começassem a testar as inúmeras possibilidades do ChatGPT. E ao que parece, a máquina não vai substituir o advogado tão cedo.

Destaco um caso específico para discussão, que ocorreu em maio deste ano, no qual dois advogados em Nova York ficaram internacionalmente conhecidos por terem delegado ao ChatGPT a ilustre tarefa de fazer uma pesquisa sobre jurisprudência em um caso de responsabilidade civil.

Eis os fatos conhecidos [2].

Em 2019, em um voo de San Salvador para Nova York, um passageiro chamado Roberto Mata alegou que um empregado da Avianca Airlines acertou seu joelho esquerdo com o carrinho de serviços, causando danos severos de natureza neurológica e incapacidade laboral. Em 2022, Mata processou a companhia aérea na jurisdição distrital de Manhattan.

A companhia aérea havia solicitado a retirada do caso para uma corte federal, argumentando diversos precedentes jurídicos sobre a Convenção de Montreal, pacto assinado pelo governo dos EAU, e como sua sede se localizava em Bogotá e o sr. Mata seria um cidadão norte-americano, faria jus ao que é chamado no direito estadunidense de "Diversity Jurisdiction".

Quando a Avianca Airlines, representada por um dos escritórios de direito aeronáutico mais renomados dos EUA, solicitou a um juiz federal em Manhattan que rejeitasse o caso, os advogados do sr. Mata contestaram vigorosamente, apresentando uma petição de dez páginas que mencionava mais de seis decisões judiciais relevantes. Citaram, por exemplo, o caso Varghese v. China Southern Airlines Co. e o caso Zicherman v. Korean Air Lines Co.

Existia apenas um problema: ninguém — nem os advogados contratados da companhia aérea, nem mesmo o próprio juiz Kevin Castel — conseguiu encontrar as decisões ou as citações contidas no documento. Isso porque o ChatGPT foi utilizado como o instrumento de busca dos advogados de Mata.

Em abril de 2022, o juiz Castel havia despachado o que é chamado de "order to show cause", o que poderíamos traduzir para uma ordem judicial que exige à uma das partes a justificação ou explicação do porquê o tribunal deve ou não conceder a tutela, solicitando, neste caso, mais informações a respeito das jurisprudências citadas pelos advogados de Mata, Peter LoDuca e Steven Schwartz. O tribunal alegou que não localizou os precedentes em nenhuma base de dados, especialmente no "federal reporter" (um livro que contém todos os precedentes no âmbito da justiça federal estadunidense).

Para cumprir essa ordem, os advogados de Mata solicitaram um prazo de 20 dias para agregar os precedentes nos autos do processo. Porém, como é do conhecimento de advogados, existem sistemas que possibilitam encontrar uma jurisprudência em poucos segundos, como o Jusbrasil, por exemplo. Nos Estados Unidos é comum o uso dos sistemas Westlaw e LexisNexis, que possuem funções similares aos utilizados em solo brasileiro.

A solicitação de um prazo desproporcional chamou atenção do juiz Castel, o qual afirmou que "esta Corte se depara com circunstâncias sem precedentes" e solicitou uma audiência para que ambos os advogados fossem testemunhar sob juramento e em suspeita de terem litigado de má-fé.

Schwartz, alegou que advoga em Nova York por três décadas, e disse ao juiz Kevin Castel que não tinha intenção de enganar a Corte ou a companhia aérea. Ao longo do depoimento, o Sr. Schwartz disse que nunca havia usado o ChatGPT e, "portanto, desconhecia a possibilidade de que seu conteúdo pudesse ser falso".

Já seu parceiro de firma, o sr. LoDuca, tomou um depoimento mais embaraçoso. O juiz questionou sobre os meios de pesquisas que foram utilizados pelo advogado para elaboração da petição que continha as decisões inexistentes. LoDuca afirmou que não encontrou os precedentes favoráveis em nenhum mecanismo de busca, e havia utilizado o ChatGPT pois ouviu dizer que a ferramenta era extremamente eficaz.

Ao decorrer de depoimento, o advogado afirma que não perguntou ao ChatGPT questões relacionadas a Convenção de Montreal, o que era um dos aspectos controversos estratégicos do caso, mas sim sobre casos que pudessem favorecer o caso de seu cliente.

O juiz reconheceu que a própria inteligência artificial tende a criar sentenças favoráveis, a depender do comando dado pelo usuário, e que os advogados tinham plena ciência de que os casos citados eram inexistentes. Ele concluiu que ambos abandonaram suas responsabilidades ao apresentar a petição escrita pela IA e persistiram em defender as decisões falsas mesmo após as ordens judiciais proferidas.

Além de cada um pagar uma multa de US$ 5 mil, os advogados, Peter LoDuca e Steven Schwartz, e seu escritório de advocacia Levidow, foram obrigados a notificar cada juiz falsamente identificado como o autor das decisões do caso falso sobre a sanção.

É isso o que acontece quando um advogado utiliza o ChatGPT
Como discutido anteriormente, o ChatGPT gera respostas realistas fazendo suposições sobre quais fragmentos de texto devem seguir outras sequências, com base em um modelo estatístico que ingeriu bilhões de exemplos de texto extraídos de toda a internet (os quais não sabemos ao certo). No caso de Mata, o programa parece ter discernido a estrutura de um argumento jurídico escrito, mas o preencheu com nomes e fatos de casos inexistentes.

Importante destacar que, muito embora não discorremos sobre esse caso neste artigo, situação similar já ocorreu em solo brasileiro, em abril deste ano. Um advogado brasileiro foi multado em R$ 2.400 depois de protocolar uma petição de participação como "amigo da corte" redigida exclusivamente pelo ChatGPT. A decisão havia sido proferida pelo ministro Benedito Gonçalves, do Tribunal Superior Eleitoral (TSE) [3].

Interessante observar que em ambos os casos, podemos nos deparar com um termo utilizado na língua alemã que é Fremdschämen, que designa um sentimento de vergonha alheia diante dos erros dos outros. Os advogados, tanto os estadunidenses como o brasileiro, haviam acreditado fielmente que o ChatGPT era uma ferramenta confiável, apta a auxiliar um advogado em uma pesquisa jurisprudencial e de elaboração de petições. Entretanto, não procuraram a verificar a própria autenticidade dos produtos produzidos pelo chatbot.

Existem ferramentas interessantes de processamento de linguagem natural para advogados, como o sistema Ross, da IBM Watson, que realiza respostas jurídicas para perguntas jurídicas, pois foi treinado para correlacionar questões em respostas em uma imensa base de dados de conteúdo do Direito. Ou seja, é baseado em evidências. Com toda certeza, não é o caso do ChatGPT, ao menos por enquanto.

Como os advogados podem utilizar o ChatGPT de forma estratégica é uma questão delicada, pois ainda não temos total clareza sobre como os dados inseridos no chatbot (comandos, textos, citações etc.) são processados e tratados em relação às legislações de privacidade e proteção de dados, como a LGPD (Lei nº 13.70/2021) ou a GDPR (Regulamento Geral de Proteção de Dados).

Por exemplo, ao inserir a transcrição de uma reunião estratégica com um cliente no ChatGPT, que possa conter informações sensíveis e nomes dos participantes, e solicitar um resumo da ata, existe o risco de expor informações confidenciais do cliente a uma empresa privada cujas intenções no treinamento "opensource" ainda são incertas. Isso poderia configurar uma quebra do sigilo advogado-cliente (artigo 25 do Código de Ética e Disciplina da OAB).

É fundamental lembrar que, como advogados, temos responsabilidade pelos nossos atos, o que inclui garantir a veracidade das informações que utilizamos, mesmo que sejam produzidas por estagiários ou advogados juniores, as quais são revisadas posteriormente por profissionais mais experientes do direito.

Para usar a ferramenta do GPT de forma equilibrada, é recomendado limitar seu uso a tarefas rotineiras, como a elaboração de e-mails ou revisão de textos, sempre tomando o cuidado de garantir o sigilo das informações e dados pessoais envolvidos. Por exemplo, ao redigir um e-mail para um cliente com o resumo de uma pesquisa que indica argumentos favoráveis ao caso dele, é importante substituir o nome do cliente, informações do caso concreto e outros detalhes que possam representar riscos ao sigilo profissional. Dessa forma, podemos aproveitar os benefícios da ferramenta de maneira mais segura e ética em nossa prática advocatícia.

No entanto, é importante lembrar que o ChatGPT não se destina a ser utilizado como uma ferramenta de busca. Embora ele possa aprimorar sua escrita e oferecer contos nem sempre tão engraçados, bem como compartilhar curiosidades interessantes, seu modelo fundamental não foi projetado para fazer pesquisas. Em vez disso, sua principal função é criar sentenças tão refinadas que se assemelhem à escrita humana.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!