Opinião

Moderação de conteúdo e responsabilidade dos provedores de aplicações de internet

Autor

  • é estagiário no escritório Giamundo Neto Advogados graduando em direito pela Faculdade de Direito de São Bernardo do Campo e membro do Laboratório de Governo da Universidade de São Paulo.

    Ver todos os posts

25 de dezembro de 2024, 6h31

Após idas e vindas de debates e discussões com o Congresso Nacional, o Supremo Tribunal Federal trouxe à tona, novamente, o julgamento dos limites da liberdade de expressão no meio virtual, analisando a efetividade do controle das redes sociais pelos provedores, no que se conhece por “moderação de conteúdo” [1].

Isso ocorre porque a liberdade de comunicação fornecida aos usuários possibilita todo e qualquer tipo de disseminação de informação dentro das plataformas, propiciando o compartilhamento de notícias sabidamente inverídicas, discursos de ódio, crimes etc. Desse modo, surge a necessidade de regulamentar o que pode ou não ser publicado dentro das mídias sociais, aparecendo, assim, o Marco Civil da Internet (MCI) [2].

O Marco Civil busca garantir direitos fundamentais, estabelecendo princípios, tais como a garantia da liberdade de expressão, comunicação e manifestação de pensamento, nos termos da Constituição (artigo 3°, I), e a responsabilização dos agentes de acordo com suas atividades, nos termos da lei (artigo 3°, VI). Além disso, também dispõe sobre a responsabilidade civil dos provedores de aplicação nos artigos 18 ao 21.

E é justamente em seu artigo 19 [3] que o MCI é mais criticado.

Recurso Extraordinário 1.037.396

Sob essa ótica, surge o Recurso Extraordinário (RE) 1.037.396, que busca discutir a constitucionalidade do caput de tal artigo. A decisão do ministro Dias Toffoli foi de questão constitucional e repercussão geral da matéria, pois, nas palavras do relator, “dada a magnitude dos valores envolvidos, afigura-se essencial que o Supremo Tribunal Federal, realizando a necessária ponderação, posicione-se sobre o assunto”. Processualmente falando, a decisão ultrapassa o interesse das partes envolvidas, atingindo toda a sociedade. Dessa forma, o resultado do julgamento do RE 1.037.396 irá uniformizar o entendimento para que todos os tribunais de origem sigam o que foi decidido pelo STF.

No que diz respeito ao conteúdo do RE 1.037.396, há de se dizer que se faz necessário, em determinadas circunstâncias, interpretar o artigo de forma diferente ao disposto legal em observância aos princípios constitucionais aplicáveis à hipótese, considerando-os de forma distinta em certos casos concretos, mas sem afastar a finalidade inicial da lei [4]. A exigência de uma ordem judicial para a remoção de conteúdo das redes sociais, especialmente quando tais conteúdos violam direitos, pode comprometer direitos fundamentais, como a honra, a imagem e a intimidade, previstos no artigo 5º, inciso X, da Constituição.

Em situações em que o conteúdo permanece disponível por um período prolongado e atinge um grande número de pessoas, a intervenção judicial pode se revelar insuficiente para mitigar os danos causados à vítima, resultando na ineficácia da proteção dos direitos assegurados pela norma constitucional mencionada.

Spacca

Isso gera um grande obstáculo ao combate à desinformação, uma vez que o artigo determina que para a devida exclusão de um conteúdo da plataforma que gere danos a terceiros, é necessária uma notificação judicial prévia. Somente após isso, caso não cumprida a determinação por meio da plataforma, é que ela poderá ser responsabilizada.

Sendo assim, o dispositivo se mostra como um retrocesso na garantia dos direitos fundamentais, uma vez que isto prejudica a proteção do direito da personalidade e, “paradoxalmente, estabelece a prevalência das questões patrimoniais sobre as questões existenciais, ao exigir uma notificação judicial prévia para que o provedor seja responsabilizado perante as vítimas” [5].

A mudança da responsabilidade das plataformas no artigo 19, ou seja, independentemente de prévia notificação judicial, torna nítida a maior motivação para a remoção de supostos conteúdos ilícitos nas redes sociais. Na prática, há três decisões possíveis para o artigo 19.

A inconstitucionalidade, o que poderia tornar as plataformas responsáveis por qualquer publicação em seus domínios; a constitucionalidade; ou uma intepretação conforme à Constituição [6], tornando o artigo constitucional por meio de um princípio de economia do ordenamento ou de máximo aproveitamento dos atos jurídicos. [7] Ou seja, deve ser lido conforme alguns princípios da constituição, tornando-se uma regra geral para a maioria dos casos, mas cabendo exceções [8].

Para o presente ensaio, a tese da interpretação conforme a Constituição é a que trará os melhores resultados para a sociedade civil.

Isso porque o artigo 19 deve ser aplicado, como já foi dito, a depender da situação fática, garantindo a preservação da honra e a imagem das pessoas, mas também o direito ao devido processo legal e ao contraditório e ampla defesa.

Interpretação social e eleitoral 

Percebe-se, portanto, que o debate sobre a constitucionalidade do artigo 19 do MCI ultrapassa a mera interpretação literal do texto, devendo haver a interpretação hermenêutica da norma e indo ao encontro do contexto fático da situação. Isso porque o contexto social e político há de influenciar o debate. Os casos de disseminação de fake news quanto ao uso de vacinas durante o pandemia da covid-19 e os ataques ao Estado democrático de direito liderados, conforme conclusão da Polícia Federal, por Jair Bolsonaro, comprovam essa ideia.

É fundamental destacar a relação entre a propagação de discursos de ódio contra o sistema eleitoral e o Supremo Tribunal Federal pelo ex-presidente Bolsonaro e os atentados ocorridos em 8 de janeiro de 2023 e 14 de novembro de 2024, por exemplo. Nesse sentido, os ministros do STF devem, e certamente o farão, concluir que o ambiente fomentado e deixado pelo ex-presidente contribuiu para a disseminação de conteúdos nas mídias sociais que perpetuam esses ideais. Em razão disso, os provedores de aplicação que permitirem a permanência de tais conteúdos criminosos em suas plataformas devem ser responsabilizados objetivamente.

Além disso, a utilização dos chamados “algoritmos” nas plataformas digitais desempenhou um papel significativo na disseminação de notícias falsas, especialmente durante a pandemia e nas eleições de 2018 e 2022. No contexto eleitoral, especificamente durante o período de campanha, a abordagem do “notice and take down” é tratada de maneira distinta pela Resolução nº 23.732, de 27 de fevereiro de 2024, do Tribunal Superior Eleitoral (TSE).

De acordo com essa resolução, é dever do provedor de aplicação de internet, que permita a veiculação de conteúdo político-eleitoral, a adoção e a publicização de medidas para impedir ou diminuir a circulação de fatos notoriamente inverídicos ou gravemente descontextualizados que possam atingir a integridade do processo eleitoral (artigo 9º-D), além de serem solidariamente responsáveis, civil e administrativamente, quando não promoverem a indisponibilização imediata de conteúdos e contas, durante o período eleitoral (artigo 9°-E) [9].

A medida implementada pelo TSE é plenamente válida e necessária, pois a disseminação de informações falsas durante o período eleitoral pode, de forma decisiva, impactar os resultados de uma eleição. O poder financeiro de alguns candidatos, aliado ao uso de algoritmos e redes de apoio, possibilita que uma informação equivocada alcance rapidamente a população [10], ao passo que informações verdadeiras, muitas vezes, demoram a ser divulgadas e podem ser rejeitadas por aqueles que já foram influenciados pela narrativa falsa.

Conclusão

O julgamento da constitucionalidade do artigo 19 do Marco Civil da Internet no âmbito do RE 1.037.396 evidencia o desafio de equilibrar direitos fundamentais, como a liberdade de expressão e o direito à honra, imagem e privacidade. O cenário contemporâneo, marcado pela rápida disseminação de desinformação e discursos de ódio nas redes sociais, expõe a inadequação da atual responsabilização dos provedores de aplicação em certas ocasiões. A necessidade de prévia ordem judicial para a remoção de conteúdos danosos, embora busque resguardar o devido processo legal, muitas vezes compromete a proteção de direitos fundamentais e a efetividade no combate à desinformação.

A tese da interpretação conforme à Constituição apresenta-se como a solução mais ponderada para o contexto brasileiro, permitindo uma aplicação equilibrada do artigo 19. Essa abordagem permite que os direitos à honra e à imagem sejam protegidos em situações específicas, sem renunciar ao devido processo legal quando necessário.

No entanto, não se pode desconsiderar a possibilidade de um efeito backlash do Poder Legislativo contra uma decisão que altere significativamente o regime de responsabilidade das plataformas digitais. O Congresso Nacional frequentemente busca reafirmar sua prerrogativa de legislar e, por isso, uma mudança judicial que pressione as plataformas para uma responsabilidade objetiva pode gerar reações legislativas, como propostas para restringir o alcance das decisões do Supremo ou para criar normas que limitem a interferência do Judiciário em regulamentações específicas.

Dessa forma, faz-se fundamental o diálogo entre os Poderes para garantir uma regulação eficiente que respeite os direitos constitucionais e promova uma internet mais segura e justa para todos.

 


Referências bibliográficas

BRASIL. Marco Civil da Internet. Lei 12.965. 23 de abril 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm

BRASIL. Resolução nº 23.732, de 27 de fevereiro de 2024. Disponível em: https://www.tse.jus.br/legislacao/compilada/res/2024/resolucao-no-23-732-de-27-de-fevereiro-de-2024.

BRASIL. Tribunal Superior Eleitoral. Ação de Investigação Judicial Eleitoral 0601771-28.2018.6.00.0000. 15 de outubro de 2021. Disponível em: https://static.poder360.com.br/2021/10/AIJE-1771-28-2.pdf

MIRANDA, Jorge. Manual de Direito Constitucional. 2. ed., Coimbra Editora, Coimbra, 1988. T. II.

ROBERTS, Sarah T. “Content Moderation”. Encyclopedia of big data. UCLA previously published works. 05 fev. 2017. Disponível em: https://escholarship.org/uc/item/7371c1hf

[1] Roberts entende o termo como uma “prática organizada de filtragem de conteúdo gerado por usuários e postados em sites, redes sociais ou outras portas de entrada online, para determinar sua adequação com o site, local ou jurisdição”. V. ROBERTS, Sarah T. “Content Moderation”. Encyclopedia of big data. UCLA previously published works. 05 fev. 2017. Disponível em: https://escholarship.org/uc/item/7371c1hf. Acesso em: 01 dez 2024.

[2] Lei 12.965/14.

[3] Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário (BRASIL, 2014).

[4] Vejamos um exemplo: Caio faz uma publicação em seu perfil na rede social X em que compartilha fotos intimas de Mévio, seu inimigo, tomando banho. Temos aqui um caso em que a necessidade de uma notificação judicial morosa pode atingir diretamente a honra e imagem de Mévio perante a sociedade. Por outro lado, Tício descobre que Semprônio, atual prefeito da cidade, está recebendo verbas para realizar uma obra sem licitação. Assim, revela o fato em suas redes sociais e Semprônio, o prefeito, alega ter sua honra atingida. Nesse caso, cabe ao judiciário analisar os fatos e provas para que o post seja ou não removido.

[5] 0006017- 80.2014.8.26.0125, MANIFESTAÇÃO, 49778/2023, p. 36.

[6] Essa interpretação ou princípio decorre da supremacia da normas constitucionais sobre as demais.

[7] MIRANDA, Jorge. Manual de Direito Constitucional. 2. ed., Coimbra Editora, Coimbra, 1988. T. II. p.232-3.

[8] Por exemplo, para crimes dentro da plataforma deverá ser aplicada a responsabilidade objetiva e, para posts tenham um viés de apontamentos pessoais de terceiros, deve haver a tutela jurisdicional para decidir sobrea a remoção ou não. Outra hipótese de exceção seria o poder de alcance da plataforma, com uma maior responsabilidade para aquelas com mais usuários, como o X e o Facebook.

[9] BRASIL. Resolução nº 23.732, de 27 de fevereiro de 2024. Disponível em: https://www.tse.jus.br/legislacao/compilada/res/2024/resolucao-no-23-732-de-27-de-fevereiro-de-2024.

[10] “Salientou que uso indevido dos meios de comunicação social caracterizou-se peloemprego de elevada quantia de dinheiro proveniente de empresas na contratação de serviços de disparos de mensagens contendo propaganda eleitoral – inclusive fake news – para bases de dados legais e ilegais, ocasionando desequilíbrio na disputa eleitoral.” (TSE – AIJE 0601771-28, p. 23)

Autores

  • é estagiário no escritório Giamundo Neto Advogados, graduando em direito pela Faculdade de Direito de São Bernardo do Campo e membro do Laboratório de Governo da Universidade de São Paulo.

Encontrou um erro? Avise nossa equipe!