Toffoli propõe ampliar responsabilização de redes e exclusão de conteúdo mesmo sem notificação
5 de dezembro de 2024, 18h39
O Plenário do Supremo Tribunal Federal deu sequência nesta quinta-feira (5/12) ao julgamento que discute a responsabilização de plataformas como Google, Facebook e X (antigo Twitter) por conteúdos publicados por usuários e a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014).
O ministro Dias Toffoli, relator de um dos casos em discussão no STF, propôs um rol taxativo de conteúdos que levarão à responsabilidade civil objetiva das plataformas caso o material não seja excluído por elas mesmas, independentemente de notificação extrajudicial ou decisão judicial determinando a exclusão.
O rol proposto pelo magistrado é o seguinte:
1) Crimes contra o Estado democrático de Direito;
2) Atos de terrorismo ou preparatórios de terrorismo;
3) Crime de induzimento, instigação ou auxílio ao suicídio ou automutilação;
4) Racismo;
5) Violência contra criança, adolescentes e vulneráveis de modo geral;
6) Qualquer espécie de violação contra a mulher;
7) Infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medida sanitária em situação de emergência em saúde pública;
8) Tráfico de pessoas;
9) Incitação ou ameaça da prática de violência física ou sexual;
10) Divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis; e
11) Divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados com potencial para causar danos ao equilíbrio do pleito ou integridade do processo eleitoral.
O ministro propôs ainda que contas inautênticas também gerem responsabilização objetiva. Ou seja, as plataformas terão de monitorar a criação de perfis falsos e poderão ser punidas civilmente por causa deles.
Além disso, serão responsabilizadas objetivamente quando houver dano decorrente de conteúdo impulsionado, de forma remunerada ou não, solidariamente com o respectivo anunciante ou patrocinador.
Até agora, apenas Toffoli votou. O julgamento será retomado na próxima semana com os votos dos demais ministros.
Artigo 19 inconstitucional
Toffoli votou pela inconstitucionalidade do artigo 19 do Marco Civil, segundo o qual a responsabilização das redes por conteúdos de terceiros só ocorre se, após decisão judicial, elas não retirarem conteúdos considerados como “infringentes”.
O ministro propôs a adoção da sistemática do artigo 21, em que a responsabilização não tem como marco o descumprimento da decisão judicial, mas a ausência de providência após o ofendido ou seu representante legal enviar à plataforma uma notificação extrajudicial a respeito de determinada publicação.
Hoje, o artigo 21 está restrito à divulgação não autorizada de conteúdos sexuais e de nudez. A proposta de Toffoli é ampliar a aplicação do dispositivo para conteúdos “ilícitos” ou “ofensivos”, inclusive quanto às hipóteses da danos a intimidade, vida privada, honra e imagem. E também para conteúdos “inequivocamente desinformativos”, “notícias fraudulentas” ou que estejam “em desacordo” com a Constituição, leis ou normativas.
O ministro, no entanto, disse que as plataformas poderão analisar se retiram ou não um determinado conteúdo, arcando com a possibilidade de serem responsabilizadas caso não tirem do ar material ilícito ou ofensivo.
“A plataforma, se retirar excessivamente, estará sujeita a uma ação judicial para repor. Se não retirar o que é ilícito, estará sujeita a uma ação que decidirá retirar. Mas ela já responderá desde a notificação pela responsabilidade civil, e não só após o descumprimento de uma decisão judicial”, disse Toffoli.
“Esclarece-se que também se considera ilícito o material inequivocamente desinformativo, a notícia fraudulenta, assim compreendida aquela que seja integral ou parcialmente inverídica que tenha aptidão para ludibriar o receptor, influenciando o seu comportamento com a finalidade de alcançar vantagem específica e indevida.”
Demais pontos
Sobre jornais e blogs jornalísticos, o ministro propôs a aplicação exclusiva da Lei 13.188/2015, que dispõe sobre o direito de resposta ou retificação do ofendido sobre conteúdo divulgado, publicado ou transmitido por veículo de comunicação.
“A imprensa possui responsabilidade pelas matérias que publica e pode ser chamada a responder por elas exclusivamente na forma da lei específica. A lei que existe para a imprensa fora do mundo virtual é aplicável aos blogs, sites e plataformas jornalísticas no mundo virtual”, afirmou Toffoli.
Segundo o ministro, o monitoramento de conteúdos não levará a casos de censura a jornais pelas plataformas. Veículos de comunicação digitais, no entanto, temem que a remoção de conteúdo a partir de notificações leve, sim, ao menos indiretamente, à censura, em especial em plataformas como o YouTube.
Há também a preocupação de que conteúdos sejam retirados das plataformas de forma automática e indiscriminada, prejudicando a liberdade de expressão.
Toffoli também sugeriu hipóteses de responsabilização de market places, como Mercado Livre e Magazine Luiza. Segundo ele, as plataformas devem responder objetivamente e solidariamente nos casos de venda de produtos proibidos ou sem certificação ou homologação, sem prejuízo de responsabilização com base no Código de Defesa do Consumidor quando houver produtos com defeito.
O ministro elencou ainda os provedores que não são atingidos pela decisão. Estão entre eles os serviços de email; de reuniões fechadas por vídeo ou voz, como Google Meets e Zoom; e de mensageria instantânea, como WhatsApp e Telegram.
Quanto aos aplicativos de mensagens, no entanto, a decisão só vale para as mensagens privadas entre interlocutores certos e determinados. Quando verificado que os aplicativos são utilizados como redes sociais (com a publicação em grupos ou compartilhamento massivo de conteúdo), no entanto, deve ser aplicado o artigo 21 do Marco Civil e a possibilidade de responsabilidade objetiva se verificada a incidência das condutas listadas no rol proposto por Toffoli.
Em seu voto, o ministro também definiu uma série de deveres que devem ser seguidos pelas big techs, como atualização de termos e condições de uso; obrigação de ter representante legal no país; criação de mecanismos para assegurar a autenticidade de contas; regras de padronização moderada de conteúdos; combate à desinformação e às notícias falsas em ambientes virtuais; monitoramento de “riscos sistêmicos” de seus ambientes digitais, com a produção de relatórios de transparência; disponibilização de canais específicos de notificação; e produção de relatórios semestrais de transparência relativos à gestão e à solução das reclamações pelos seus sistemas internos.
Por fim, Toffoli fez um apelo ao Legislativo e ao Executivo para que, em até 18 meses, elaborem e implementem uma política pública destinada ao enfrentamento da violência digital e da desinformação.
As ações
O Supremo está analisando conjuntamente duas ações sobre a responsabilização das big techs e a constitucionalidade do artigo 19 do Marco Civil da Internet.
No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria de Toffoli), é discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.
Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux), é discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.
Além dos dois casos de repercussão geral, está na agenda da corte um terceiro processo, que está sob a relatoria do ministro Edson Fachin.
Na ADPF 403, os magistrados vão discutir se é possível o bloqueio de aplicativos por decisões judiciais ou se a intervenção do Judiciário ofende os direitos à liberdade de expressão e de comunicação.
‘Imunidade total’
Toffoli começou a votar na quinta-feira da semana passada (28/11) e só terminou sua exposição na sessão desta quinta. Para o ministro, a responsabilização das redes só a partir da aplicação do artigo 19 dá imunidade às big techs ao estabelecer que só há responsabilidade após o descumprimento de decisão judicial.
“Há uma imunidade total aos conteúdos e ao perfil falso enquanto não houver uma decisão judicial. Consiste em verdadeira imunidade o privilégio de somente ser chamado a responder por um dano quando e se descumprir ordem judicial prévia e específica.”
Segundo ele, a punição só após a decisão descumprida cria distorções, como a perpetração de ilegalidades durante o passar dos anos.
“Aquilo (conteúdos ilícitos) pode ficar por anos na internet sem nenhuma reparação posterior. Porque a responsabilização pelo artigo 19 só surge se descumprir decisão judicial. Se cumpre, não há responsabilidade. É disso que se trata. O que é ilícito no mundo real é ilícito no mundo virtual. O direito incide no mundo dos fatos, sejam eles fatos reais ou digitais. Seja na briga de botequim ou na briga virtual.”
O ministro também disse que vivemos em um “mundo de violência digital” e que essa violência é acobertada pelas plataformas “enquanto não houver descumprimento de decisão judicial”. Ele citou casos de atentados a escolas e o ataque a bomba em frente ao Supremo, no mês passado.
“Todos esses eventos ou foram previamente anunciados nas redes sociais ou em grupos públicos e canais abertos dos serviços de mensageria, sem que nenhum desses serviços tomasse atitudes”, prosseguiu Toffoli.
Segundo o magistrado, o Brasil vige o regime da responsabilidade, ao passo que o artigo 19 excluiu os provedores de responsabilização. Por fim, ele disse que essas empresas não são neutras.
“Ao contrário, muitas adotam postura ativa e intencional ao gerir o fluxo informacional de seus ecossistemas. Uma suposta neutralidade não pode funcionar como escudo contra a responsabilização.”
O que diz o Facebook
Na sessão de quarta-feira passada (27/11), o advogado José Rollemberg Leite Neto, sócio do escritório Eduardo Ferrão Advogados Associados, defendeu a constitucionalidade do artigo 19 ao representar o Facebook.
De acordo com ele, não há inércia das plataformas para a supressão de conteúdos ilícitos. Ele afirmou, por exemplo, que no ano passado 208 milhões de postagens com pedofilia, violência e discurso de ódio foram removidas globalmente pelo Facebook a partir de identificações feitas pela própria plataforma.
Leite Neto também afirmou que a maioria dos processos do gênero trata não da retirada de publicações, mas da reinclusão de material anteriormente removido.
Ele pediu que, caso o Supremo não considere o artigo 19 integralmente constitucional, seja dada interpretação conforme à Constituição determinando que a retirada obrigatória de perfis e páginas só se dê em casos de exploração sexual infantil, terrorismo, racismo, abolição violenta do Estado democrático de Direito e golpe de Estado.
“Por que não mais do que isso? Porque conceitos abertos como ‘fake news’, ‘desinformação’, ‘crimes contra a honra’ e ‘postagens manifestamente ilegais’ incentivariam remoções excessivas e levariam a uma judicialização massiva.”
Por fim, questionado pelo ministro Luís Roberto Barroso, presidente da corte, sobre o modo como a plataforma exclui perfis falsos, ele disse que em 98% dos casos há a retirada automática após a comunicação feita por usuários da plataforma.
O que diz o Google
Já o Google foi representado pelo advogado Eduardo Bastos Furtado de Mendonça, que também apresentou na semana passada dados sobre a remoção de conteúdos. Ele disse que em 2023 o YouTube (plataforma de vídeos da empresa) removeu 1,6 milhão de publicações no Brasil por violações de políticas da empresa, enquanto no mesmo período os casos judicializados somaram 614 pedidos.
“Não existe uma inércia que seja parte do modelo de negócio das plataformas. Nem haveria sentido que existisse. A maioria dos usuários e a generalidade dos anunciantes repudia esses conteúdos (ilícitos). Não é proveitoso esse tipo de conteúdo.” Os pedidos que chegam ao Judiciário, disse ele, são de fato casos em que há controvérsias que merecem intervenção judicial.
Ainda segundo o advogado, “nenhum país democrático do mundo” adota um modelo de responsabilidade objetiva, em que as plataformas são responsáveis por todo e qualquer conteúdo de terceiros, ficando obrigadas a monitorar publicações globalmente.
Ele citou modelos adotados na Europa, sustentando que o que existe lá são normas que definem que há responsabilidade objetiva quando há descumprimento de decisões, e que o marco para a responsabilização é a notificação extrajudicial. No entanto, prosseguiu Mendonça, a responsabilização só vale para casos específicos, e não para qualquer tipo de conteúdo.
“No caso da lei alemã, a eventual responsabilização está relacionada à indicação de ilicitudes específicas e tipos penais específicos, e o que se prevê é uma responsabilidade pela falha sistêmica de responder adequadamente a essas notificações.”
“Não faria sentido responsabilizar uma plataforma por não ter removido um conteúdo cujo exame é polêmico e sujeito a valorações subjetivas, e que muitas vezes é objeto de divisão no próprio Judiciário”, prosseguiu o advogado.
Ele também destacou que o artigo 21 do Marco Civil prevê a exclusão de conteúdos após notificação extrajudicial, mas em casos específicos de nudez e atos sexuais privados. Para Mendonça, em casos de crimes objetivos, as plataformas identificam e apagam os conteúdos. O mesmo não deveria ser aplicado em conceitos amplos como desinformação, disse ele.
Clique aqui para ler o voto do ministro Dias Toffoli
RE 1.037.396
RE 1.057.258
ADPF 403
Encontrou um erro? Avise nossa equipe!