Mesmo fora da lista de alto risco do Marco da IA, algoritmos podem ser controlados
13 de dezembro de 2024, 14h28
O Marco Legal da Inteligência Artificial (Projeto de Lei 2.338/2023), que vai regulamentar o tema no Brasil, foi aprovado no Senado sem incluir os algoritmos das big techs na lista de sistemas de IA considerados de alto risco. Ainda assim, essa decisão não impede o controle dessas aplicações, que organizam a projeção de cada conteúdo na internet.
Esse entendimento é de especialistas em Direito Digital ouvidos pela revista eletrônica Consultor Jurídico, mas não há consenso. Parte deles entende que, quando se minimiza o risco, a transparência das redes fica comprometida.
O projeto que estabelece o marco regulatório da inteligência artificial no Brasil chegou ao Senado em maio do ano passado, por iniciativa do senador Rodrigo Pacheco (PSD-MG), presidente da casa. A proposta havia sido precedida de um anteprojeto elaborado por uma comissão de juristas presidida pelo ministro Villas Bôas Cueva, do Superior Tribunal de Justiça.
A versão inicial já previa uma categorização de risco de cada tipo de aplicação com inteligência artificial. A ideia era impor controle mais restritivo aos sistemas com maior potencial de dano à vida humana e aos direitos fundamentais.
Em razão disso, a proposta inicial trazia uma lista de sistemas de IA de alto risco, repetindo a solução adotada pela União Europeia no AI Act, a primeira lei do mundo dedicada à regulação da inteligência artificial. Ambas as normativas preveem até uma classificação mais rigorosa, das aplicações de “risco excessivo” e, portanto, proibidas.
Os sistemas de alto risco, conforme assinala o texto brasileiro, terão de passar por uma avaliação de impacto algorítmico, sob instrução do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) — criado justamente pela nova normativa e coordenado pela Autoridade Nacional de Proteção de Dados (ANPD).
A conclusão dessa avaliação de impacto deverá ser pública. Além disso, os sistemas de alto risco estarão submetidos a uma série de regras de governança, como a documentação de testes de confiabilidade e segurança, a mitigação de eventuais vieses discriminatórios e a adoção de medidas que permitam explicar os resultados obtidos.
Na tramitação no Senado, o PL 2.338/2023 passou a incluir na lista de alto risco os algoritmos das big techs, tratados no texto como sistemas de IA com a finalidade de “curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação de internet, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados, quando o funcionamento desses sistemas puder representar riscos relevantes à liberdade de expressão e acesso à informação e aos demais direitos fundamentais”.
Isso se manteve, no entanto, apenas até o mês passado. O substitutivo que acabou aprovado pelos senadores na última terça-feira (10/12), o oitavo do relator, senador Eduardo Gomes (PL-TO), excluiu a previsão.
Possibilidade de controle
Para o advogado Ciro Torres Freitas, que é mestre em Direito Constitucional pela PUC-SC e sócio do escritório Pinheiro Neto Advogados nas práticas de tecnologia e propriedade intelectual, a decisão foi correta: “Esses mecanismos desempenham um papel crucial para a otimização do acesso e fruição do conteúdo disponível na internet. Assumir que representam riscos relevantes a qualquer direito é precipitado, inclusive porque essa análise frequentemente assume aspecto subjetivo e demanda exame concreto, caso a caso”.
“A exclusão desses mecanismos do rol de sistemas de alto risco não compromete a efetividade da regulamentação. Eles continuarão sujeitos a diversas regras previstas no projeto de lei e poderão até ser eventualmente enquadrados entre os sistemas de risco excessivo, que são proibidos, se, por exemplo, envolverem o emprego de técnicas subliminares visando induzir comportamento que cause lesão a direito fundamental”, acrescenta.
O advogado Eduardo Paranhos, que é especializado em governança e tecnologia, além de ser líder do grupo de trabalho de IA da Associação Brasileira das Empresas de Software (Abes), concorda com Freitas. “O importante na determinação do alto risco deveria ser sempre o contexto do ‘uso’ que é feito da tecnologia. Não se pode afirmar que qualquer hipótese de curadoria traria um alto risco implícito”, argumenta.
Falta de transparência
Já para a advogada Marcela Bocayuva, mestre em Direito Público pelo UniCEUB e coordenadora da Escola Nacional da Magistratura (ENM), a escolha legislativa pode aumentar a insegurança jurídica em torno das big techs.
“Regulamentações excessivas poderiam levar as plataformas a adotarem políticas de moderação excessivamente restritivas, motivadas pelo receio de incorrerem em ilegalidade, o que poderia comprometer o uso das redes sociais. Contudo, a exclusão desses sistemas da categoria de alto risco enfraquece a efetividade da regulamentação, considerando o imenso poder que esses algoritmos exercem na vida cotidiana”, afirma.
“Sistemas de recomendação determinam quais conteúdos serão exibidos ou priorizados, moldando opiniões, comportamentos e até resultados eleitorais. Não incluí-los como de alto risco implica uma supervisão limitada. Na prática, esses algoritmos continuarão funcionando como ‘caixas-pretas’, dificultando a identificação de vieses, práticas discriminatórias ou ainda ilegalidades. Essa ausência de regulamentação pode perpetuar desinformação, discursos de ódio e segmentação excessiva, prejudicando a liberdade de expressão e o pluralismo informativo”, complementa.
Liberdade de expressão
A tramitação do texto do Senado contou com especial discussão sobre o impacto que a inclusão dos algoritmos no rol de alto risco teria na garantia da liberdade de expressão.
Para o senador Humberto Costa (PT-PE), que defendeu a inclusão na lista, não faria sentido uma regulação sobre inteligência artificial ignorar justamente o risco da aplicação com IA mais comum na rotina das pessoas. “São frequentes as denúncias, por diferentes lados do espectro político, de sistemas de recomendação e curadoria que afetam a liberdade de expressão dos usuários. Se os sistemas de IA das plataformas digitais tratam diferentemente os conteúdos dos usuários de forma a gerar distorções (viés algorítmico), elas deveriam ter obrigação de gerar mitigação desses riscos para garantir a plena liberdade de expressão”, argumentou.
O senador Mecias de Jesus (Republicanos-RR) fez defesa oposta: “A inclusão de um dispositivo que permite a regulação do conteúdo difundido por plataformas digitais pode resultar em um controle excessivo sobre a liberdade de expressão. Isso pode levar a um ambiente onde a liberdade de opinião e a diversidade de vozes sejam suprimidas, favorecendo apenas conteúdos que se alinhem com determinadas diretrizes regulatórias”.
No relatório final, senador Eduardo Gomes alegou que a exclusão do item se deu porque “a previsão mostrou-se excessivamente genérica, considerando que a imprecisão técnica pode ter repercussões indesejáveis para setores importantes, vinculados, inclusive, à proteção de direitos fundamentais, entre eles, a liberdade de expressão”. A decisão dele atendeu também a emendas dos senadores Marcos Rogério (PL-RO) e Izalci Lucas (PL-DF).
O relator afirmou, de todo modo, que a lista de aplicações e usos de sistemas de IA considerados de alto risco não deverá ser fechada ou definitiva, mas “aberto-exemplificativa”. Os próprios provedores poderão contestar a classificação dos sistemas de IA que gerenciam. Além disso, o SIA deverá enviar ao Congresso Nacional, a cada quatro anos, um parecer sobre a necessidade de aprimoramentos na legislação sobre inteligência artificial.
“Esse projeto não é de esquerda, não é de direita. É da humanidade. Precisa manter os direitos de debate no sistema bicameral. E nós estamos cumprindo com a nossa obrigação”, disse Gomes, que classificou a versão aprovada como “o texto possível”. A proposta agora deverá passar pela apreciação da Câmara dos Deputados.
Encontrou um erro? Avise nossa equipe!