O Supremo Tribunal Federal e o PL das Fake News: acerto de contas?
18 de agosto de 2024, 6h31
Está em vias de retornar à pauta do Supremo Tribunal Federal o julgamento do Recurso Extraordinário nº 1.037.396/SP [1], no qual será analisado o Tema 987, em que se discute a constitucionalidade do artigo 19 do Marco Civil da Internet [2] (Lei nº 12.965/2014). Em essência, está em questão a responsabilização dos provedores de acesso à internet por atos ilícitos de terceiros, regulada pelo referido dispositivo. Seria uma oportunidade para que o STF ofereça uma resposta ao Projeto de Lei 2.630, mais conhecido como PL das Fake News, especialmente em relação ao conturbado trâmite ocorrido no início de 2023?
Sim e não! Espera-se que o STF decida o caso; e que, ao mesmo tempo, viabilize o debate democrático a respeito do PL 2.630, que objetiva a criação da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, no Congresso Nacional. Ou seja, almeja-se que a corte provoque um diálogo institucional.
Caso concreto
Os fatos que deram ensejo ao recurso extraordinário originam-se da identificação, por uma usuária do Facebook, de um perfil falso com seu nome e seus dados. Essa usuária notificou a rede social da violação aos seus direitos fundamentais. Não obstante ter sido notificado, o Facebook não tomou qualquer atitude. Diante da inércia, a usuária ingressou com uma ação de obrigação de fazer cumulada com indenização por danos morais contra o Facebook Serviços Online do Brasil Ltda.
Em primeiro grau, a empresa foi condenada à obrigação de fazer, consistente na exclusão do perfil falso e do fornecimento do IP de quem havia feito a veiculação indevida. Em sede de recurso inominado, a 2ª Turma Recursal Cível de Piracicaba, do estado de São Paulo, concluiu não só que o Facebook deveria excluir o conteúdo, mas também deveria ser condenado ao pagamento de indenização por danos morais, haja vista que, mesmo após a notificação da usuária, deixou de suprimir o conteúdo alegadamente falso.
Agora, o caso será analisado pelo STF, que ainda não se posicionou sobre os parâmetros que as big techs devem seguir em relação ao conteúdo veiculado em suas plataformas.
Direito Comparado
Enquanto os debates sobre o tema prosseguem no Brasil, a experiência advinda do Direito Comparado pode trazer alguma luz para a solução dos desafios a serem enfrentados pela jurisdição constitucional nacional em temas correlatos.
No âmbito da Suprema Corte norte-americana, tem-se realizado uma interpretação, no que concerne ao ciberespaço, da Primeira Emenda – que trata, entre outros direitos, da liberdade de expressão. Esse conceito emprega, de um lado, a noção libertária, consubstanciada na expressão a “free marketplace of ideas” (livre mercado de ideias) e, de outro, a noção republicana de “self-government” (autogoverno) [3]. Esses dois valores influenciam substancialmente a visão norte-americana sobre o que pode ou não ser exigido das big techs em relação ao conteúdo veiculado em suas plataformas.
Em 18 de maio de 2023, ao decidir o caso Gonzalez vs. Google LLC, a Suprema Corte dos EUA debruçou-se a respeito da responsabilização do Google, sob a perspectiva da Lei Antiterrorismo, por supostamente auxiliar e incentivar o terrorismo, devido ao uso do YouTube, que pertence ao Google, pelo Isis (organização Estado Islâmico). Em suma, a família de Nohemi Gonzalez, uma vítima dos ataques de Paris em 2015, argumentou que os algoritmos do Google recomendavam vídeos do Isis, contribuindo assim para as atividades terroristas.
A Corte decidiu que a família de Gonzalez não conseguiu estabelecer a responsabilidade direta ou secundária do Google, e, dessa forma, reafirmou a aplicabilidade da Seção 230 do Communication Decency Act (CDA), que estabelece proteção para as empresas de internet no que concerne à responsabilização por conteúdo postado por terceiros.
Reforçando tal posicionamento, em fevereiro de 2024 a Suprema Corte dos EUA decidiu o caso John Doe v. Snap, Inc., no âmbito do qual se recusou a conhecer do recurso àquele tribunal. O caso em questão envolvia alegações de que o design do Snapchat havia facilitado o aliciamento de menor de idade (15 anos à época dos fatos) por seu professor pela da funcionalidade de mensagens autodestrutivas (ou de única visualização).
A corte inferior havia decidido que a Seção 230 do CDA protege as plataformas de internet de serem tratadas como editoras ou responsáveis por conteúdo postado por terceiros, de modo a livrá-las do alcance de qualquer responsabilidade de natureza civil. Ao analisar o caso, a Suprema Corte manteve a decisão do tribunal inferior de que a Seção 230 do CDA protege o Snapchat de responsabilidade.
No Direito alemão, os tribunais têm se debruçado a respeito da matéria especialmente a partir de 2018, após a entrada em vigor da Netzwerkdurchsetzungsgesetz (NetzDG), lei que estipulou um regime de obrigações que provedores devem cumprir para garantir eficácia e transparência no tratamento de reclamações dos usuários a respeito de conteúdo potencialmente lesivo [4].
No âmbito da União Europeia, foi editada no ano 2000 a Diretiva sobre Comércio Eletrônico (Diretiva nº 2000/31/CE), que, entre outros temas, estabelecia as responsabilidades dos provedores de serviços de internet em relação ao conteúdo veiculado em suas plataformas. Em conformidade com o artigo 12 e os artigos seguintes da Diretiva, foram especificadas exceções à responsabilidade dos provedores, na medida em que eles operassem os referidos serviços de forma passiva, técnica e automática, e não exercitassem qualquer atividade de editoração em relação ao conteúdo de terceiros. Na hipótese de o provedor, por outro lado, tomar conhecimento, ou ser notificado, da ilegalidade da informação, surgiria imediatamente o dever de remover o conteúdo, sob pena de atrair para si a responsabilidade pela publicação.
Por outro lado, a Diretiva sobre Comércio Eletrônico não estabelecia o que seria um critério seguro para considerar o veículo como ciente da ilegalidade do conteúdo. Além disso, pressupunha que a avaliação do ator privado sobre a legalidade ou ilegalidade do conteúdo seria, por si só, legítima, em um cenário de ausência de avaliação de alguma autoridade pública [5].
Em 17 de fevereiro de 2024, entrou em pleno vigor o denominado Digital Services Act (DSA), aprovado pelo Parlamento Europeu no final de 2022. Algumas regras específicas para plataformas e motores de busca considerados de grande dimensão já estavam em vigor desde 16 de novembro de 2022, de modo a obrigar essas empresas a apresentar, por exemplo, relatórios, auditorias independentes e informações a respeito de compartilhamento de dados e supervisão.
Em síntese
Verifica-se, portanto, que as big techs, como intermediárias de conteúdo postado por terceiros, estão sujeitas a diferentes formas de responsabilização, a depender do nível de exigência dos regulamentos nacionais. E essas formas de responsabilização, em última instância, moldarão suas condutas jurídicas e operacionais.
Enquanto nos EUA os intermediários estarão mais livres para veicular todo tipo de informação de terceiros, sem se preocupar com eventual responsabilização, na União Europeia os intermediários estarão um pouco mais restritos. A norma e a jurisprudência os pressionam a atuar positivamente, no sentido de controlar a divulgação de conteúdo.
Se nos EUA o pecado é pelo excesso de liberdade, na União Europeia a situação é oposta. Os intermediários serão incentivados a promover o que Jack Balkin denomina de censura colateral, –pela qual as plataformas tenderiam a restringir e bloquear, de forma exagerada, o conteúdo postado pelos usuários [6].
PL das Fake News e seu desdobramento no STF
No Brasil, para regulamentar o tema, foi proposto o já mencionado PL 2.630, que pretende instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, de autoria do senador Alessandro Vieira e de relatoria do deputado federal Orlando Silva. Seu texto propõe regulamentar o uso das redes sociais, mecanismos de busca e serviços de mensageria privada, de modo a estabelecer parâmetros para a liberdade de expressão, responsabilidade e transparência no uso da internet.
O referido projeto de lei é parcialmente inspirado no Digital Services Act da União Europeia, nos termos expressamente mencionados, em diversas oportunidades, no parecer proferido em plenário pelo deputado federal Orlando Silva, em 27 de abril de 2023. No entanto, após uma tramitação conturbada e diversas críticas por parte das big techs, o projeto foi retirado de votação, com diversos desdobramentos negativos tanto para as empresas quanto para os usuários.
Um desses desdobramentos foi a abertura de um inquérito criminal no âmbito do Supremo Tribunal Federal, sob o nº 4.933. No entanto, o ministro Alexandre de Moraes, relator, determinou, em 20 de junho de 2024, o arquivamento do feito, com fundamento em parecer do Ministério Público Federal, por ausência de justa causa, e, no mesmo ato, a remessa dos autos para a Procuradoria Regional da República em São Paulo, para eventual aproveitamento no âmbito do Inquérito Civil nº 1.34.001.009969/2021-3519.
Diante de um vácuo normativo, coube ao Supremo pautar a discussão, ocasião em que poderão ser definidas as responsabilidades das big techs pelo conteúdo postado por seus usuários. A corte vai analisar a constitucionalidade do artigo 19 do Marco Civil da Internet, segundo o qual a responsabilização dessas empresas se daria apenas após a omissão no cumprimento de uma decisão judicial prévia.
A ADI 4.277
A decisão do Supremo poderá trazer importantes parâmetros para o debate e deverá provocar um diálogo institucional; quiçá semelhante àquele promovido pelo voto do ministro Gilmar Mendes no âmbito da ADI 4.277. Neste caso, houve uma omissão significativa do Congresso Nacional para regulamentar liberdades sensíveis, especialmente em relação às uniões homoafetivas.
Para legitimar a atuação do Supremo Tribunal Federal o ministro precisou fundamentar a sua decisão – jurídica e politicamente – em uma inação do Poder Legislativo, representada, naquela oportunidade, por uma omissão que, então, contava mais de 15 anos.
O ministro Gilmar Mendes considerou, além da omissão legislativa sobre o tema, a constatação da proteção insuficiente das liberdades, dentre as quais a liberdade sexual. Diante disso, estabeleceu uma solução provisória, até que sobreviesse regulamentação que fosse consentânea com os direitos fundamentais e ostentasse, finalmente, a legitimidade política, fatores necessários para resolver em definitivo a questão.
Considerações finais
Espera-se que a decisão não suprima, porém, a necessidade de um debate sobre o tema no Congresso Nacional, com a participação de todos os atores envolvidos. A construção de um regulamento que trate de todas as nuances presentes nessa nova realidade digital deverá levar em conta tanto os direitos fundamentais dos usuários como os princípios constitucionais relativos à liberdade econômica e à livre iniciativa.
Almeja-se, assim, que este novo regulamento, a ser deliberado em local próprio para tanto, possa trazer segurança jurídica para os usuários e para as empresas, e, ao mesmo tempo, proporcionar um ambiente que incentive investimentos na área de tecnologia, de que o país tanto carece.
[1] STF vai julgar responsabilização de plataformas pe… | VEJA (abril.com.br)
[2] Em suma dispõe o artigo 19 que: “(…) o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”
[3] POLLICINO, Oreste. Judicial protection of fundamental rights in the transition from the world of atoms to the word of bits: the case of freedom of speech. European Law Journal, v. 2, p. 8, 2019.
[4] MENDES, Gilmar Ferreira; FERNANDES, Victor Oliveira, Eficácia dos direitos fundamentais nas relações privadas da internet: o dilema da moderação de conteúdo em redes sociais na perspectiva comparada Brasil-Alemanha., Revista de Direito Civil Contemporâneo, v. 31, p. 33–68, 2022. p. RR-1.4.
[5] BASSINI, Marco. Fundamental rights and private enforcement in the digital age. European Law Journal, v. 25, p. 183, 2019.
[6] BALKIN, Jack M. The future of free expression in a digital age. Pepperdine Law Review, v. 36, n. 2, p. 435, 2009.
Encontrou um erro? Avise nossa equipe!