Legislação imuniza big techs ao punir só após descumprimento de ordem judicial, diz Toffoli
28 de novembro de 2024, 18h51
O ministro Dias Toffoli, do Supremo Tribunal Federal, disse nesta quinta-feira (28/11) que a responsabilização das big techs só após o descumprimento de decisões judiciais, tal como está previsto no artigo 19 do Marco Civil da Internet (Lei 12.965/2014), consiste em “verdadeira imunidade e privilégio” dado às plataformas digitais.
O STF começou a analisar na quarta (27/11) duas ações com repercussão geral que discutem, entre outras coisas, a constitucionalidade do artigo 19, a responsabilização das plataformas por conteúdos de usuários e a remoção de conteúdos e perfis mediante notificação extrajudicial.
No primeiro dia de julgamento, houve só as manifestações das partes e dos amigos da corte. Na sessão desta quinta-feira, Toffoli, relator de uma das ações, começou a votar, mas ainda não encerrou sua exposição. A análise será retomada na próxima quarta-feira (4/12).
O artigo 19 determina que as plataformas digitais e provedores só podem ser responsabilizados civilmente quando descumprem ordem judicial de retirada de conteúdo apontado como “infringente”. Leia a seguir o conteúdo do dispositivo:
Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria de Toffoli), é discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.
Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux), é discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.
Além dos dois casos de repercussão geral, está na agenda da corte um terceiro processo, que está sob a relatoria do ministro Edson Fachin.
Na ADPF 403, os magistrados vão discutir se é possível o bloqueio de aplicativos por decisões judiciais ou se a intervenção do Judiciário ofende os direitos à liberdade de expressão e de comunicação.
Imunidade
Toffoli afirmou que a responsabilização só após descumprimento de ordem judicial é uma espécie de “imunidade” dada pelo Marco Civil da Internet às big techs.
“Há uma imunidade total aos conteúdos e ao perfil falso enquanto não houver uma decisão judicial. Consiste em verdadeira imunidade o privilégio de somente ser chamado a responder por um dano quando e se descumprir ordem judicial prévia e específica”, afirmou o magistrado.
Segundo ele, a punição só após a decisão descumprida cria distorções, como a perpetração de ilegalidades durante o passar dos anos.
“Aquilo (conteúdos ilícitos) pode ficar por anos na internet sem nenhuma reparação posterior. Porque a responsabilização pelo artigo 19 só surge se descumprir decisão judicial. Se cumpre, não há responsabilidade. É disso que se trata. O que é ilícito no mundo real é ilícito no mundo virtual. O direito incide no mundo dos fatos, sejam eles fatos reais ou digitais. Seja na briga de botequim ou na briga virtual.”
Ainda segundo o ministro, o Marco Civil representa uma “grande conquista democrática”. No decorrer dos anos, no entanto, a norma de 2014 ficou desatualizada, no entendimento de Toffoli.
“Não se pode mais ignorar a necessidade de sua atualização, especialmente no que concerne ao regime de responsabilidade dos provedores de aplicação. Tal necessidade fica mais evidente quando se tem em conta os riscos sistêmicos ao próprio direito à liberdade de expressão, aos direitos fundamentais da igualdade e preservação da dignidade da pessoa humana, ao princípio democrático e ao Estado de Direito, e à segurança e à ordem pública.”
AGU defende responsabilização
Antes do voto de Toffoli, o advogado-geral da União, Jorge Messias, defendeu a ampliação das responsabilidades civis das plataformas digitais e a inconstitucionalidade do artigo 19 do Marco Civil da Internet.
Caso o Supremo decida conferir ao dispositivo interpretação conforme à Constituição, em vez de declarar sua inconstitucionalidade, Messias sugeriu que a corte estabeleça a possibilidade de responsabilização se a plataforma for notificada extrajudicialmente e, mesmo assim, se omitir.
Na manifestação feita no Supremo, ele afirmou que houve “recentes episódios de recalcitrância (desobediência) no cumprimento de decisões judiciais de remoção de conteúdo e bloqueio de perfis, por parte de determinados provedores, em evidente afronta à soberania nacional, que ratificaram a necessidade de adequada regulação do tema”.
“Embora o dispositivo tenha por finalidade a proteção da liberdade de expressão e a prevenção da censura, ao exigir ordem judicial específica para remoção, ele não pode ser usado de forma abusiva”, prosseguiu o AGU.
O que diz o Facebook
Na sessão de quarta-feira, o advogado José Rollemberg Leite Neto, sócio do escritório Eduardo Ferrão Advogados Associados, defendeu a constitucionalidade do artigo 19 ao representar o Facebook.
De acordo com ele, não há inércia das plataformas para a supressão de conteúdos ilícitos. Ele afirmou, por exemplo, que no ano passado 208 milhões de postagens com pedofilia, violência e discurso de ódio foram removidas globalmente pelo Facebook a partir de identificações feitas pela própria plataforma.
Leite Neto também afirmou que a maioria dos processos do gênero trata não da retirada de publicações, mas da reinclusão de material anteriormente removido.
Ele pediu que, caso o Supremo não considere o artigo 19 integralmente constitucional, seja dada interpretação conforme à Constituição determinando que a retirada obrigatória de perfis e páginas só se dê em casos de exploração sexual infantil, terrorismo, racismo, abolição violenta do Estado democrático de Direito e golpe de Estado.
“Por que não mais do que isso? Porque conceitos abertos como ‘fake news’, ‘desinformação’, ‘crimes contra a honra’ e ‘postagens manifestamente ilegais’ incentivariam remoções excessivas e levariam a uma judicialização massiva.”
Por fim, questionado pelo ministro Luís Roberto Barroso, presidente da corte, sobre o modo como a plataforma exclui perfis falsos, ele disse que em 98% dos casos há a retirada automática após a comunicação feita por usuários da plataforma.
O que diz o Google
Já o Google foi representado pelo advogado Eduardo Bastos Furtado de Mendonça, que também apresentou dados sobre a remoção de conteúdos. Ele disse que em 2023 o YouTube (plataforma de vídeos da empresa) removeu 1,6 milhão de publicações no Brasil por violações de políticas da empresa, enquanto no mesmo período os casos judicializados somaram 614 pedidos.
“Não existe uma inércia que seja parte do modelo de negócio das plataformas. Nem haveria sentido que existisse. A maioria dos usuários e a generalidade dos anunciantes repudia esses conteúdos (ilícitos). Não é proveitoso esse tipo de conteúdo.” Os pedidos que chegam ao Judiciário, disse ele, são de fato casos em que há controvérsias que merecem intervenção judicial.
Ainda segundo o advogado, “nenhum país democrático do mundo” adota um modelo de responsabilidade objetiva, em que as plataformas são responsáveis por todo e qualquer conteúdo de terceiros, ficando obrigadas a monitorar publicações globalmente.
Ele citou modelos adotados na Europa, sustentando que o que existe lá são normas que definem que há responsabilidade objetiva quando há descumprimento de decisões, e que o marco para a responsabilização é a notificação extrajudicial. No entanto, prosseguiu Mendonça, a responsabilização só vale para casos específicos, e não para qualquer tipo de conteúdo.
“No caso da lei alemã, a eventual responsabilização está relacionada à indicação de ilicitudes específicas e tipos penais específicos, e o que se prevê é uma responsabilidade pela falha sistêmica de responder adequadamente a essas notificações.”
“Não faria sentido responsabilizar uma plataforma por não ter removido um conteúdo cujo exame é polêmico e sujeito a valorações subjetivas, e que muitas vezes é objeto de divisão no próprio Judiciário”, prosseguiu o advogado.
Ele também destacou que o artigo 21 do Marco Civil prevê a exclusão de conteúdos após notificação extrajudicial, mas em casos específicos de nudez e atos sexuais privados. Para Mendonça, em casos de crimes objetivos, as plataformas identificam e apagam os conteúdos. O mesmo não deveria ser aplicado em conceitos amplos como desinformação, disse ele.
RE 1.037.396
RE 1.057.258
ADPF 403
Encontrou um erro? Avise nossa equipe!