Consultor Jurídico

Como está a regulação da inteligência artificial no Japão

8 de julho de 2024, 15h17

Por Marcelo Cárgano, Yuri Nabeshima

imprimir

A disseminação do deep fake, o avanço do machine learning, o desenvolvimento de redes neurais e a emergência da IA generativa representam uma revolução tecnológica que está redefinindo paradigmas em nossa sociedade contemporânea. Estes conceitos, outrora obscuros para o grande público, agora ocupam o centro das atenções em discussões, na mídia e nas redes sociais. Em particular, o lançamento do ChatGPT em novembro de 2022, conquistando 100 milhões de usuários em menos de dois meses, fez o impacto da inteligência artificial ser amplamente reconhecido e discutido em todo o mundo.

Freepik

A influência da inteligência artificial e suas ramificações transcende as fronteiras do conhecimento especializado, infiltrando-se em áreas que vão desde a produção de conteúdo até a segurança cibernética, levantando questões éticas e sociais profundas ao longo do caminho. A capacidade de criar imagens, vídeos e áudios sintéticos com notável realismo desafia nossa compreensão sobre o que é autêntico e verídico, exigindo uma vigilância constante e um debate informado sobre os limites da tecnologia e os princípios éticos que devem guiá-la.

A urgência em regulamentar o uso da inteligência artificial reflete esta inquietação legítima de diversos atores, como pesquisadores, juristas, organizações da sociedade civil, empresas privadas, governos e organizações internacionais. Essa preocupação se concentra especialmente na possibilidade de má utilização dessa tecnologia, que pode resultar em sérios impactos na dignidade humana, na privacidade e até mesmo representar uma ameaça aos regimes democráticos.

Neste sentido, destacam-se três iniciativas no ano de 2023 concernentes ao desenvolvimento de regulação.

  1. Em março, o Future of Life Institute, organização sem fins lucrativos focada nos riscos existenciais que cercam a IA, compartilhou uma carta aberta pedindo uma pausa de seis meses no desenvolvimento da IA para que um modelo de regulação da nova tecnologia pudesse ser desenvolvido (a pausa não ocorreu).
  2. Em outubro, após reunião do G7, sediada em Hiroshima, no Japão, os líderes das maiores economias do mundo se debruçaram sobre o tema, elaboraram um código de conduta com os princípios[1] que devem nortear as empresas de tecnologia que trabalham com o desenvolvimento da inteligência artificial em seus respectivos países.
  3. A realização da Cúpula de Segurança de IA, em novembro, na qual governos de 28 países assinaram a Declaração de Bletchley, que sublinhou o momento decisivo em que a humanidade se encontra: se por um lado a IA tem o potencial de transformar positivamente setores como saúde e educação, segurança alimentar, ciência, energia limpa, biodiversidade e clima, contribuindo para o bem-estar e prosperidade humanas, por outro a IA apresenta riscos catastróficos, especialmente em domínios como cibersegurança e biotecnologia, bem como na amplificação da desinformação.

Para garantir uma IA centrada no ser humano, confiável, responsável e segura, 28 países (incluindo Brasil e Japão) declararam querer construir políticas baseadas em riscos, requerendo maior transparência por parte dos atores privados que desenvolvem tecnologias de IA, somadas a uma governança e abordagem regulatória pró-inovação e proporcional que maximize os benefícios e leve em conta os riscos associados à IA.

No Brasil, a expectativa é de que tenhamos uma análise e votação pelo Senado do Projeto de Lei n° 2338, de 2023, que versa sobre a matéria, nas próximas semanas. O referido projeto, elaborado por uma comissão de 18 juristas a convite do próprio Senado, passou por exame da Comissão Temporária Interna sobre Inteligência Artificial, que apresentou substitutivo consolidando tanto as contribuições dos juristas como de outros nove projetos sobre o tema, caso seja aprovado pelo plenário do Senado, o PL (ou seu substitutivo) deverá ser remetido à Câmara dos Deputados para votação.

Destaca-se que com a finalidade de assegurar a lisura do processo eleitoral, o Tribunal Superior Eleitoral (TSE) em paralelo regulamentou o uso da IA nas eleições municipais de 2024, restringindo o uso dessa ferramenta nas campanhas eleitorais, focando especialmente no combate à disseminação de fake news.

Tendência global da IA

Spacca

Ao lançar olhares para o outro lado do mundo, podemos dizer que a abordagem do Japão sinaliza as tendências globais na regulamentação da IA: embora não haja até o momento uma lei que regule diretamente a tecnologia no âmbito do ordenamento jurídico japonês, verifica-se a existência de instrumentos que vêm sido desenvolvidos internamente ao longo dos últimos anos, que endereçam a matéria de forma orientativa e não vinculativa, contando com a colaboração voluntária das empresas atuantes no segmento (soft law).

Exemplo disso é o documento intitulado “Princípios Sociais da IA Centrada no Ser Humano”, publicado em 2019, pelo qual o governo japonês estabelece diretrizes básicas para a regulação da IA, e admite que a IA pode constituir tecnologia chave para a superação de muitos problemas sociais enfrentados pelo País, como o declínio e o envelhecimento populacional, a consequente escassez de mão-de-obra e despovoamento rural, e o aumento de despesas fiscais – além de permitir a criação de uma “Sociedade 5.0 [2]“.

Em linhas gerais, o instrumento prevê como pilares da regulação da IA os seguintes valores:

  1. a dignidade humana, sendo entendida como evitar uma sociedade onde os seres humanos sejam excessivamente dependentes da IA ou onde a IA seja utilizada para controlar o comportamento humano através da procura excessiva de eficiência e conveniência;
  2. a diversidade e inclusão, sendo entendida como uma sociedade onde pessoas de diversas origens possam gerar o seu próprio bem-estar;
  3. a sustentabilidade, sendo entendida como a resolução de disparidades sociais e de  problemas ambientais globais, como as mudanças climáticas.

Além disso, a proposta japonesa segue a estrutura adotada na “Recomendação do Conselho de Inteligência Artificial” da Organização para a Cooperação e o Desenvolvimento Econômico (OCDE), fixando sete princípios que entende como fundamentais para preparar a sociedade para a IA e implementar tais tecnologias de forma adequada, sendo eles:

  1. Centrada no ser humano: A IA ​​não deve infringir os direitos humanos fundamentais garantidos pela Constituição japonesa e pelas normas internacionais;
  2. Educação/Alfabetização: A IA não deve criar disparidades ou divisões entre as pessoas ou criar pessoas socialmente desfavorecidas, e para tanto, devem ser proporcionadas oportunidades de educação em IA a crianças e adultos.
  3. Proteção de privacidade: Tecnologias de IA aumentam o risco à privacidade e proteção de dados, de modo que a IA não deve infringir a liberdade, dignidade ou igualdade individual de uma pessoa e seu uso deve ser precedido de mecanismos técnicos para reduzir riscos e proteger dados pessoais de acordo com o seu grau de importância e sensibilidade.
  4. Segurança: A IA ​​representa um novo conjunto de riscos para a segurança em caso de eventos não planejados ou ataques deliberados, e como tal, a sociedade deve avaliar adequadamente riscos na utilização da IA ​​e desenvolver medidas amplas de segurança para mitigar tais riscos.
  5. Concorrência leal: A sociedade deve manter um ambiente competitivo justo que permita a criação de novas empresas e serviços, manter o crescimento econômico sustentável e apresentar soluções para os desafios sociais, e a IA não deve ficar concentrada nas mãos de poucas empresas ou países.
  6. Justiça, responsabilidade e transparência: É necessário garantir a justiça e a transparência na tomada de decisões pela IA, a responsabilização adequada pelos resultados e a confiança na tecnologia, para que as pessoas que utilizam a IA não sejam sujeitas a discriminação indevida.
  7. Inovação: Para concretizar a Sociedade 5.0 e implementar a IA de forma eficiente e segura na sociedade, conceitos como fronteiras nacionais, setores industriais, governos, raças, gêneros, nacionalidades, idades, convicções políticas e religiões têm de ser transcendidos, visando a uma globalização total, onde os dados de todos os domínios possam ser utilizados.

Em complemento, o documento “Governança de IA no Japão — Relatório de Grupo de Especialistas sobre como os princípios da IA devem ser implementados” [3], publicado pelo Ministério da Economia, Comércio e Indústria, em 9 de julho de 2021, reforça o entendimento de que o Japão teria adotado uma abordagem voltada ao soft law, na medida em que prevê que “neste momento, são considerados desnecessários requisitos horizontais juridicamente vinculativos para os sistemas de IA (…) mesmo que no futuro sejam realizadas discussões sobre requisitos horizontais juridicamente vinculativos, a avaliação dos riscos deverá ser implementada tendo em conta não só os riscos, mas também os benefícios potenciais”. Isso porque não seria possível estabelecer regras rígidas e estáticas que acompanhassem o ritmo acelerado da evolução tecnológica, demandando, ainda, uma grande cautela para que a regulação não inviabilize o desenvolvimento de soluções inovadoras.

No entanto, a rápida evolução da IA tem levado também o Japão a discutir a necessidade de uma regulamentação mais rigorosa sobre o tema. No final de dezembro de 2023, o partido governante no Japão (LDP) apresentou um white paper intitulado “Proposta Urgente para Garantir a Segurança e Promover o Uso da IA”. Levando em consideração as discussões sobre o tema em Hiroshima e os avanços estrangeiros na criação de regras sobre o tema, a proposta defendia que para assegurar a segurança da IA o Japão deve adotar certas medidas, como a criação de um instituto de pesquisa sobre o tema, a garantia de orçamento necessário ao desenvolvimento tecnológico, a expansão da promoção da estratégia de IA, e a elaboração de diretrizes nacionais para o tema.

Desinformação e atividades criminosas

Considerando particularmente preocupante o uso de IA generativa na disseminação de desinformação e na facilitação de atividades criminosas, o mesmo partido deu início a discussões mais amplas sobre uma política base de IA em fevereiro de 2024, apresentando um projeto de lei sobre o tema. Visando principalmente desenvolvedores de IA em grande escala, como a OpenAI, desenvolvedora do ChatGPT, o projeto prevê a adoção de protocolos de segurança nacionais para o desenvolvimento de IA de alto risco e o compartilhamento obrigatório de informações relacionadas com o risco com o governo japonês, bem como a obrigação da emissão de relatórios de conformidade com regularidade. No entanto, a proposta também deixa diversas questões para decisão do setor privado, sublinhando o delicado equilíbrio entre regulamentação e promoção da competitividade.

Apesar das iniciativas do LDP, de modo geral o governo japonês ainda mantém certa cautela quanto a afastar-se da tradicional regulamentação soft law, temendo sufocar a inovação, especialmente em meio a um cenário em que as principais tecnologias de IA vêm do exterior, e, crescentemente, da rival China.

Em seu próprio white paper apresentado em abril de 2024, o governo apresenta sua visão para tornar o Japão “o país mais amigável do mundo à AI”. Se por um lado demonstra preocupações com uma variedade de riscos, incluindo a sofisticação de ciberataques e fraudes, disseminação de desinformação, interferência eleitoral, violações de propriedade intelectual e vazamento de dados pessoais à medida que o desempenho da IA generativa melhora e seu uso se expande, o governo japonês entende que o país deve facilitar o uso e implementação da IA, e, em particular, entender que o Japão deve fomentar a livre distribuição global de conjuntos de dados de treinamento de IA e atuar de forma intensiva para desenvolver ferramentas adequadas para uso no Japão, levando em consideração seu idioma, cultura e práticas comerciais.

Em relação à abordagem de uma futura regulamentação, o governo japonês defende a adoção de medidas voluntárias por parte dos entes privados com base em diretrizes governamentais é sua abordagem preferencial, mas entende que requisitos legais mínimos “hard law” também serão necessários, levando em conta a magnitude dos riscos, as tendências internacionais, e as preocupações com a desinformação e o respeito à propriedade intelectual.

Concluindo, a abordagem do Japão à regulamentação da IA reflete uma filosofia de equilíbrio e prudência. A preferência por diretrizes orientativas em vez de leis rígidas e vinculativas (sem, no entanto, descartá-las) é uma aposta na capacidade de inovação e na responsabilidade social das empresas de tecnologia. Esta estratégia pode não apenas fomentar o desenvolvimento tecnológico, mas também garantir que tal progresso ocorra de maneira que respeite os valores humanos fundamentais e promova o bem-estar coletivo. Em particular, chama a atenção o desejo do Japão de alavancar o desenvolvimento de ferramentas de IA locais, que levem em consideração o idioma e cultura locais, fortalecendo a competitividade internacional do Japão.

A “Sociedade 5.0” vislumbrada pelo Japão é um testemunho de sua visão de futuro, na qual a IA não é apenas uma ferramenta para resolver problemas, mas um meio para construir uma sociedade mais inclusiva, diversificada e sustentável. Com isso, o Japão se posiciona não apenas como um líder em tecnologia, mas como país vanguardista na criação de um modelo de governança de IA que poderá inspirar políticas globais, equilibrando inovação com integridade e responsabilidade social.

 


[1] A ideia principal é promover uma IA segura, protegida e confiável, em linha com uma abordagem baseada no risco e em 11 princípios, quais sejam: (1) Adotar medidas apropriadas durante todo o desenvolvimento de IA para identificar, avaliar e mitigar riscos; (2) Identificar e mitigar vulnerabilidades e, quando apropriado, incidentes e padrões de uso indevido, após a sua colocação no mercado; (3) Reportar publicamente as capacidades, limitações e domínios de utilização apropriada e inadequada da IA; (4) Compartilhar informações e relatórios de incidentes entre organizações que desenvolvam IA, inclusive com a indústria, governos, sociedade civil e academia; (5) Desenvolver, implementar e divulgar políticas de governação da IA e de gestão de riscos, baseadas numa abordagem baseada no risco; (6) Investir e implementar controles de segurança robustos; (7) Desenvolver e implantar mecanismos confiáveis de autenticação e proveniência de conteúdo para permitir que os usuários identifiquem conteúdo gerado por IA; (8) Priorizar pesquisas em mitigação de riscos sociais e de segurança; (9) Priorizar o desenvolvimento de IA para enfrentar os grandes desafios mundiais, como a crise climática, saúde global e educação; (10) Promover o desenvolvimento e a adoção de normas técnicas internacionais; e (11) Implementar medidas adequadas de proteção de dados pessoais e PI.

[2] Sociedade 5.0.”, também chamada de “sociedade superinteligente”, é um termo surgido em 2016 no Quinto Plano Básico de Ciência e Tecnologia, estratégia nacional quinquenal japonesa formulada pelo Conselho de Ciência, Tecnologia e Inovação (CSTI) e incluído na estratégia de crescimento do governo japonês em 2017 durante o governo do Primeiro-Ministro Shinzo Abe. O conceito sugere que uma nova sociedade 5.0 se seguirá às Sociedade 1.0 (caçadora-coletora), Sociedade 2.0 (agrícola), Sociedade 3.0 (industrial) e a Sociedade 4.0 (informação). A Sociedade 5.0 prevê um sistema socioeconómico alimentado por tecnologias digitais, como a análise de Big Data, IA, IoT e robótica de modo a permitir que o ciberespaço e o espaço físico se fundirão.

[3] Disponível em: <https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20210709_8.pdf>. Acesso em: 16/06/2024.