DEVER DE MONITORAR

Redes sociais devem excluir publicações ilícitas mesmo sem ordem judicial, diz Fux

Autor

11 de dezembro de 2024, 19h09

A partir do momento em que são notificadas sobre conteúdos ilícitos, as plataformas digitais devem excluir as publicações, independentemente de ordem judicial. Além disso, as empresas devem monitorar postagens claramente ilícitas, que contenham discurso de ódio, racismo, pedofilia, incitação à violência ou apologia a golpe de Estado.

Luiz Fux disse que big techs devem monitorar conteúdo claramente ilícito

Esse foi o entendimento do ministro do Supremo Tribunal Federal Luiz Fux ao votar nesta quarta-feira (11/12) para negar recurso do Google em caso anterior ao Marco Civil da Internet (Lei 12.965/2014).

O STF está analisando conjuntamente duas ações sobre a responsabilização das big techs e a constitucionalidade do artigo 19 do Marco Civil. No outro caso, o relator, ministro Dias Toffoli, votou para declarar a inconstitucionalidade do dispositivo.

Os dois julgamentos foram interrompidos por pedido de vista do presidente da corte, ministro Luís Roberto Barroso, e devem ser retomados na sessão da próxima quarta (18/12).

Voto de Fux

O caso relatado por Fux trata da negativa do Google de excluir uma comunidade da finada rede social Orkut contra uma professora. Por isso, a empresa foi condenada, mas recorreu ao Supremo.

Fux apontou que, embora o Marco Civil da Internet não existisse à época da condenação, a Constituição Federal já protegia a vida privada, a imagem e a honra das pessoas. Segundo ele, a liberdade de expressão não legitima a ridicularização de indivíduos.

Para o ministro, a degradação de pessoas é interessante para as big techs, pois ajuda publicações a viralizar. Com isso, mais anúncios são vinculados e as empresas lucram mais.

De acordo com Fux, as redes sociais devem excluir postagens ilícitas assim que tiverem ciência delas, sem aguardarem ordem judicial. E podem ser responsabilizadas se não o fizerem.

O magistrado destacou a gravidade de casos em que postagens ofensivas são impulsionadas mediante pagamento. “É presumido de modo absoluto o efetivo conhecimento da ilicitude por parte da empresa provedora de aplicações nesses casos”, afirmou ele. “Foi pago, é ilícito e presume-se que ela sabia. Não precisa nem notificar.”

Além disso, disse Fux, as empresas de tecnologia devem ativamente monitorar — e excluir — publicações claramente ilícitas, que contenham discurso de ódio, racismo, pedofilia, incitação à violência ou apologia a golpe de Estado.

Outro caso

Na outra ação, Dias Toffoli votou na quinta passada (5/12) pela inconstitucionalidade do artigo 19 do Marco Civil, segundo o qual a responsabilização das redes por conteúdos de terceiros só ocorre se, após decisão judicial, elas não retirarem conteúdos considerados “infringentes”.

O ministro propôs a adoção da sistemática do artigo 21, em que a responsabilização não tem como marco o descumprimento da decisão judicial, mas a ausência de providência após o ofendido ou seu representante legal enviar à plataforma uma notificação extrajudicial a respeito de determinada publicação.

Hoje, o artigo 21 está restrito à divulgação não autorizada de conteúdos sexuais e de nudez. A proposta de Toffoli é ampliar a aplicação do dispositivo para conteúdos “ilícitos” ou “ofensivos”, inclusive quanto às hipóteses da danos a intimidade, vida privada, honra e imagem. E também para conteúdos “inequivocamente desinformativos”, “notícias fraudulentas” ou que estejam “em desacordo” com a Constituição, leis ou normativas.

O ministro, no entanto, disse que as plataformas poderão analisar se excluem ou não um determinado conteúdo, arcando com a possibilidade de serem responsabilizadas caso não tirem do ar material ilícito ou ofensivo.

“A plataforma, se retirar excessivamente, estará sujeita a uma ação judicial para repor. Se não retirar o que é ilícito, estará sujeita a uma ação que decidirá retirar. Mas ela já responderá desde a notificação pela responsabilidade civil, e não só após o descumprimento de uma decisão judicial”, disse Toffoli.

“Esclarece-se que também se considera ilícito o material inequivocamente desinformativo, a notícia fraudulenta, assim compreendida aquela que seja integral ou parcialmente inverídica que tenha aptidão para ludibriar o receptor, influenciando o seu comportamento com a finalidade de alcançar vantagem específica e indevida.”

Toffoli propôs um rol taxativo de conteúdos que levarão à responsabilidade civil objetiva das plataformas caso o material não seja excluído por elas mesmas, independentemente de notificação extrajudicial ou decisão judicial determinando a exclusão.

O rol proposto pelo magistrado é o seguinte:

1) Crimes contra o Estado democrático de Direito;

2) Atos de terrorismo ou preparatórios de terrorismo;

3) Crime de induzimento, instigação ou auxílio ao suicídio ou automutilação;

4) Racismo;

5) Violência contra criança, adolescentes e vulneráveis de modo geral;

6) Qualquer espécie de violação contra a mulher;

7) Infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medida sanitária em situação de emergência em saúde pública;

8) Tráfico de pessoas;

9) Incitação ou ameaça da prática de violência física ou sexual;

10) Divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis; e

11) Divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados com potencial para causar danos ao equilíbrio do pleito ou integridade do processo eleitoral.

As ações

O Supremo está analisando conjuntamente duas ações sobre a responsabilização das big techs e a constitucionalidade do artigo 19 do Marco Civil da Internet.

No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria de Toffoli), é discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.

Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux), é discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.

Além dos dois casos de repercussão geral, está na agenda da corte um terceiro processo, que está sob a relatoria do ministro Edson Fachin.

Na ADPF 403, os magistrados vão discutir se é possível o bloqueio de aplicativos por decisões judiciais ou se a intervenção do Judiciário ofende os direitos à liberdade de expressão e de comunicação.

Suspensão do WhatsApp

Na mesma sessão, o ministro Alexandre de Moraes pediu vista e interrompeu o julgamento de uma outra ação, que discute o bloqueio de aplicativos de mensagem, como o WhatsApp e o Telegram, por ordem judicial.

Os ministros vão decidir se referendam ou não uma liminar do ministro Ricardo Lewandowski (aposentado) contra decisão de primeira instância que bloqueou o WhatsApp.

Em 2016, Lewandowski entendeu que o bloqueio era desproporcional porque afetava usuários de todo o país, inclusive o Poder Judiciário, já que a ferramenta era usada também para intimações.

Na decisão derrubada por Lewandowski, a 2ª Vara Criminal de Duque de Caxias (RJ) determinou o bloqueio do WhatsApp alegando que o aplicativo desobedeceu ordem para interceptar mensagens de pessoas investigadas em um inquérito. A empresa teria se limitado a responder, em inglês, que não arquiva e não copia mensagens de seus usuários.

Em sessão virtual, o ministro Edson Fachin, relator do caso, havia votado para referendar a liminar de Lewandowski e foi acompanhado por Alexandre, mas o ministro Flávio Dino pediu destaque. Com isso, o julgamento foi levado ao Plenário físico.

RE 1.037.396
RE 1.057.258
ADPF 403

Autores

Encontrou um erro? Avise nossa equipe!