Plataformas em julgamento

Para Google e Facebook, obrigação de apagar conteúdo por notificação resultaria em censura

Autor

27 de novembro de 2024, 17h55

Representantes do Facebook e do Google defenderam nesta quarta-feira (27/11), no plenário do Supremo Tribunal Federal, a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014). O dispositivo estabelece que as plataformas digitais e os provedores só podem ser responsabilizados civilmente quando descumprem ordem judicial de retirada do ar de conteúdo apontado como ilegal.

Supremo começou a analisar ações sobre responsabilização de redes

O STF começou a analisar nesta quarta duas ações com repercussão geral que discutem, entre outras coisas, a constitucionalidade do artigo 19, a responsabilização das plataformas por conteúdos de usuários e a remoção de conteúdos e perfis mediante notificação extrajudicial.

O artigo 19 do Marco Civil, tema central da discussão dos ministros, diz o seguinte:

Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria do ministro Dias Toffoli), será discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.

Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux) será discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.

O que diz o Facebook

O Facebook foi representado no julgamento iniciado nesta quarta pelo advogado José Rollemberg Leite Neto. De acordo com ele, se o Supremo decidir que notificações extrajudiciais são o suficiente para a retirada do ar de qualquer tipo de conteúdo, haverá um ambiente de “censura massiva”, que pode afetar até mesmo os jornais.

“Isso importa na preservação do jornalismo profissional. Em extensa medida, os conteúdos postados nas plataformas vêm dessas fontes. E qualquer conteúdo que represente denúncia ou crítica pode ser visto como ofensivo e instado a ser removido. O que causaria um gravíssimo prejuízo ao debate público.”

De acordo com o advogado, não há inércia das plataformas para a supressão de conteúdos ilícitos. Ele afirmou, por exemplo, que no ano passado 208 milhões de postagens com pedofilia, violência e discurso de ódio foram removidas globalmente pelo Facebook a partir de identificações feitas pela própria plataforma.

Leite Neto também afirmou que a maioria dos processos do gênero trata não da retirada de publicações, mas da reinclusão de material anteriormente removido.

Ele pediu que, caso o Supremo não considere o artigo 19 integralmente constitucional, seja dada interpretação conforme à Constituição determinando que a retirada obrigatória de perfis e páginas só se dê em casos de exploração sexual infantil, terrorismo, racismo, abolição violenta do Estado democrático de Direito e golpe de Estado.

“Por que não mais do que isso? Porque conceitos abertos como ‘fake news’, ‘desinformação’, ‘crimes contra a honra’ e ‘postagens manifestamente ilegais’ incentivariam remoções excessivas e levariam a uma judicialização massiva.”

Por fim, questionado pelo ministro Luís Roberto Barroso, presidente da corte, sobre o modo como a plataforma exclui perfis falsos, ele disse que em 98% dos casos há a retirada automática após a comunicação feita por usuários da plataforma.

O que diz o Google

O Google foi representado pelo advogado Eduardo Bastos Furtado de Mendonça, que também apresentou dados sobre a remoção de conteúdos. Ele disse que em 2023 o YouTube (plataforma de vídeos da empresa) removeu 1,6 milhão de publicações no Brasil por violações de políticas da empresa, enquanto no mesmo período os casos judicializados somaram 614 pedidos.

“Não existe uma inércia que seja parte do modelo de negócio das plataformas. Nem haveria sentido que existisse. A maioria dos usuários e a generalidade dos anunciantes repudia esses conteúdos (ilícitos). Não é proveitoso esse tipo de conteúdo.” Os pedidos que chegam ao Judiciário, disse ele, são de fato casos em que há controvérsias que merecem intervenção judicial.

Ainda segundo o advogado, “nenhum país democrático do mundo” adota um modelo de responsabilidade objetiva, em que as plataformas são responsáveis por todo e qualquer conteúdo de terceiros, ficando obrigadas a monitorar publicações globalmente.

Ele citou modelos adotados na Europa, sustentando que o que existe lá são normas que definem que há responsabilidade objetiva quando há descumprimento de decisões, e que o marco para a responsabilização é a notificação extrajudicial. No entanto, prosseguiu Mendonça, a responsabilização só vale para casos específicos, e não para qualquer tipo de conteúdo.

“No caso da lei alemã, a eventual responsabilização está relacionada à indicação de ilicitudes específicas e tipos penais específicos, e o que se prevê é uma responsabilidade pela falha sistêmica de responder adequadamente a essas notificações.”

“Não faria sentido responsabilizar uma plataforma por não ter removido um conteúdo cujo exame é polêmico e sujeito a valorações subjetivas, e que muitas vezes é objeto de divisão no próprio Judiciário”, prosseguiu o advogado.

Ele também destacou que o artigo 21 do Marco Civil prevê a exclusão de conteúdos após notificação extrajudicial, mas em casos específicos de nudez e atos sexuais privados. Para Mendonça, em casos de crimes objetivos, as plataformas identificam e apagam os conteúdos. O mesmo não deveria ser aplicado em conceitos amplos como desinformação, disse ele.

Além dos dois casos de repercussão geral, está na agenda da corte um terceiro processo que está sob a relatoria do ministro Edson Fachin.

Na ADPF 403, os ministros vão discutir se é possível o bloqueio de aplicativos por decisões judiciais ou se a intervenção do Judiciário ofende os direitos à liberdade de expressão e de comunicação.

RE 1.037.396
RE 1.057.258
ADPF 403

Autores

Encontrou um erro? Avise nossa equipe!