Regulação das big techs no Brasil: melhor remediar do que prevenir?
2 de fevereiro de 2025, 8h00
Convidados pela Advocacia-Geral da União (AGU), participamos ativamente da audiência pública que aconteceu no dia 22 de janeiro de 2025 (representando a academia), para contribuir com o Debate Técnico sobre a Política de Moderação de Conteúdo das Plataformas Digitais no Brasil.
O presente texto busca sintetizar o que foi ali proposto – também encaminhado por escrito na Tomada de Subsídios encerrada no dia 24/1/2025 – tendo por gatilho a decisão da Meta recém-comunicada por seu CEO de substituir a atual política de moderação de suas redes sociais – baseada em verificação de fatos (fact-checking) com apoio de agências independentes (como Lupa, Aos Fatos, entre outras) – por atuação exclusiva de notas de comunidade.
Com efeito, tal notícia acendeu um sinal vermelho no governo e na sociedade civil no sentido de se buscar com vigor uma prevenção eficiente para que os ambientes das plataformas e redes sociais não se tornem ainda mais antidemocráticos e discriminatórios, por meio da continuidade de práticas generalizadas de desinformação, tornando premente e inafastável a instituição de um modelo regulatório de moderação de conteúdo das plataformas digitais no país.
Importante que a temática seja analisada não somente sob a perspectiva do Direito Digital, mas também sob a ótica estatal e regulatória, evidenciando aspectos de Direito Administrativo e de democracia defensiva.
Nessa linha, parece-nos que o modelo europeu [1] de regulação das redes sociais é amplamente reconhecido como uma abordagem avançada e abrangente para lidar com os desafios das plataformas digitais, especialmente no que se refere à moderação de conteúdo, proteção de direitos fundamentais e combate à desinformação, e está ancorado em uma combinação de legislação específica.
No final de 2022, a União Europeia aprovou o Digital Services Act, uma das legislações mais avançadas para regular serviços digitais no mundo [2]. Sendo assim, o DSA é uma legislação que estabelece regras claras para plataformas digitais, incluindo redes sociais, marketplaces e motores de busca, a fim de “prevenir atividades ilegais e prejudiciais online e a propagação de desinformação”, segundo informações da Comissão Europeia [3].
Na época, União Europeia (UE) publicou uma lista de 19 plataformas digitais [4], com milhões de usuários, que passariam por uma regulação muito mais rígida a partir do final de agosto de 2023, e diversas delas se pronunciaram de forma favorável.
Seus objetivos principais são: (1) proteção dos direitos fundamentais dos usuários; (2) transparência e responsabilidade; e (3) mitigação de riscos sistêmicos. Entre as medidas principais estão o combate à disseminação de conteúdos ilegais, maior transparência na moderação, controle sobre opções de personalização de conteúdo, proibição de publicidade direcionada a menores de idade e a perfis sensíveis, além de proteção à privacidade infantil e medidas para assegurar a segurança de eleições.
Plataformas muito grandes, com mais de 45 milhões de usuários na UE [5], como Google, Meta, X (ex-Twitter), Telegram e Amazon, estão sujeitas a regras mais rigorosas devido ao seu alcance significativo.
Portanto, a grande inovação da legislação europeia, que pode servir de inspiração para mudanças no contexto brasileiro, está na exigência de que plataformas digitais monitorem proativamente conteúdos ilegais, conforme definido pela legislação criminal, e removam publicações ilícitas assim que forem notificadas.
Ainda, existe o General Data Protection Regulation (GDPR) [6], que embora seja voltado para a proteção de dados pessoais, ele influencia diretamente a atuação das redes sociais ao impor questões como: (1) consentimento explícito para uso de dados, sendo que as plataformas só podem coletar e processar dados pessoais com o consentimento claro e informado dos usuários; (2) direito ao esquecimento, pois usuários podem solicitar a remoção de seus dados e conteúdos em determinadas circunstâncias; (3) transparência em algoritmos, que embora não específico para redes sociais, o GDPR exige que os algoritmos respeitem a privacidade e não resultem em discriminação ou práticas abusivas.
No Brasil, a possível adoção de elementos do modelo europeu de regulação das redes sociais apresenta tanto desafios quanto oportunidades.
Assim como na União Europeia, o país busca (ou deveria buscar) equilibrar a proteção da liberdade de expressão com a necessidade de combater conteúdos prejudiciais, como desinformação, discurso de ódio e perpetração de crimes e propagação de materiais ilegais.
A experiência europeia oferece insights relevantes para o cenário brasileiro, especialmente em aspectos de transparência na moderação de conteúdo, criação de mecanismos acessíveis e claros para que usuários recorram de decisões das plataformas (devido processo informacional), e a proteção de dados pessoais em conformidade com a Lei Geral de Proteção de Dados (LGPD).
Questões essas particularmente importantes em um ambiente digital marcado pela intensa polarização política e pela disseminação de fake news, situação a qual o Brasil enfrenta com forte intensidade e preocupação nos últimos anos.
O contexto jurídico, cultural e social do Brasil exige adaptações significativas das diretrizes europeias, e não somente uma transposição direta e imediata. Por exemplo, enquanto o modelo europeu se baseia em legislações mais consensuais e vinculadas ao respeito aos direitos fundamentais, no Brasil há um debate mais acirrado sobre os limites da moderação de conteúdo e o papel do governo nesse processo, especialmente no contexto político polarizado no que tange à discussão sobre liberdade de expressão.
Questões como essas contribuem para que o público brasileiro não reaja com a devida preocupação ao ouvir Mark Zuckerberg (Meta, dona do Instagram, Facebook, Threads e WhatsApp) declarar que priorizará a liberdade de expressão ao decidir encerrar os programas de verificação independente de fatos (fact-checking [7]), transferindo aos próprios usuários a responsabilidade de identificar conteúdos enganosos, para o chamado modelo de “notas de comunidade”, uma abordagem similar à adotada no X, de Elon Musk.
O aludido “gatilho da Meta” exige que o Brasil finalmente adote um modelo regulatório das Big Techs, sendo que o próprio Fórum Econômico Mundial divulgou nesse início de 2025, o “Global Risks Report” [8], que evidencia que o maior risco tecnológico para os próximos dois anos em termos geopolíticos é o da desinformação.
Sendo assim, os Estados que já possuem um arcabouço regulatório estão tentando conter danos e/ou mitigá-los, enquanto os demais lutam em meio ao caos instaurado e que somente tende a piorar no futuro não muito longínquo…
Esses fatores tornam essencial o diálogo entre todos os atores envolvidos nesse processo, como governo, sociedade civil, empresas de tecnologia e usuários, para que a regulação possa efetivamente atender às demandas locais sem comprometer liberdades públicas e direitos fundamentais no Brasil.
Assim, propõe-se a criação de uma espécie de comissão específica para servir como moderadora do conteúdo reproduzido e/ou criado nas plataformas das redes sociais, uma “Comissão Nacional de Moderação das Redes Sociais”, inspirada no modelo europeu, mas adaptada à realidade nacional, que apresentaria uma solução mais pragmática para os desafios enfrentados pelo Brasil no contexto das plataformas digitais, vez que poderia acelerar o processo de regulamentação, atuando de forma mais ágil e técnica. Essa comissão poderia inclusive ser criada por propositura infralegal, não dependendo rigorosamente de um ato legislativo.
Janela de oportunidade
A proposta surge diante de uma comprovada – e compreensível – morosidade do Judiciário, que se vê sobrecarregado e frequentemente incapaz de lidar com a celeridade que o ambiente digital exige, e da aparente inação do Legislativo em avançar com a criação de uma legislação eficaz que regule as Big Techs e as redes sociais. Ainda, a sociedade brasileira demonstra apoio à regulamentação das redes sociais. Uma recente pesquisa [9] indica que 70% da população é favorável a medidas que impeçam a propagação de fake news nas plataformas digitais.
Essa comissão, que pode e deve ser estruturada e organizada pelo Executivo, seguiria os modelos regulatórios de moderação, portanto, teria como objetivo moderar e fiscalizar a regulação das redes sociais no Brasil, e seria composta por especialistas em direito digital, segurança cibernética, comunicação e áreas correlatas, com foco em agir de forma técnica e ágil, sem depender exclusivamente do Poder Judiciário ou de longos processos legislativos, demandando reações proporcionais e razoáveis das Big Techs nos diversos contextos desinformacionais que delas vêm tomando conta.
Com essa proposta, busca-se não apenas reduzir a judicialização de questões digitais, mas também proteger os direitos fundamentais dos usuários no Brasil, promovendo um ambiente virtual mais seguro, ético e democrático.
Ainda, deve-se prezar pela relevância pública da infraestrutura digital capitaneada pelas Big Techs, que por mais privada que seja, deve atender aos princípios públicos de transparência, democraticidade e respeito às liberdades públicas, o que infelizmente não vem acontecendo.
Ao estabelecer um canal direto entre governo, sociedade civil e plataformas, tal comissão pode fortalecer a moderação e a regulação das redes sociais, em um modelo mais participativo brasileiro, equilibrando a liberdade de expressão com a necessidade de combater conteúdos nocivos, como desinformação, discurso de ódio, práticas criminosas e propagação de materiais ilegais.
Finalmente, dada a complexidade do cenário brasileiro, foi aberta uma janela de oportunidade e algo precisa ser feito, pois nesse campo visivelmente é melhor prevenir do que remediar! Até porque no limite, parece-nos que a força esmagadora das Big Techs – comprovada pela presença maciça de seus CEOs na posse do governo abertamente de extrema-direita dos EUA e na ausência total no debate da Audiência Pública no Brasil – aponta para a defesa de um absurdo “apagamento do Estado”, posicionamento que não pode ser tolerado no contexto sociopolítico e constitucional em nosso país.
[1] Mais em: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_en?utm_source=chatgpt.com
[2] Mais em: https://nucleo.jor.br/reportagem/2023-01-20-dsa-inspirar-regulacao-redes-brasil/
[3] Mais em: https://www.eu-digital-services-act.com/
[4] Mais em: https://g1.globo.com/tecnologia/noticia/2023/04/25/uniao-europeia-cria-regulacao-rigida-para-redes-sociais-veja-lista-de-empresas-atingidas.ghtml
[5] Mais em: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_en?utm_source=chatgpt.com
[6] Mais em: https://gdpr-info.eu/
[7] Mais em: https://oglobo.globo.com./economia/tecnologia/noticia/2025/01/07/meta-eleva-risco-de-radicalizacao-nas-redes-e-gera-retrocesso-contra-desinformacao-avaliam-especialistas.ghtml
[8] Mais em: https://www.weforum.org/publications/global-risks-report-2025/
[9] Mais em: https://www.cartacapital.com.br/sociedade/regulacao-das-redes-sociais-tem-apoio-de-70-da-populacao-diz-pesquisa/?utm_source=chatgpt.com
Encontrou um erro? Avise nossa equipe!