Os perigos da IA e a necessidade de um marco regulatório específico
9 de novembro de 2024, 9h22
A inteligência artificial, outrora um sonho distante confinado à ficção científica, irrompeu em nossa realidade com uma força inegável, moldando a maneira como vivemos, trabalhamos e interagimos com o mundo. Da automação industrial aos algoritmos que ditam nossas experiências digitais, a IA permeia cada vez mais setores da sociedade, prometendo um futuro repleto de avanços tecnológicos e soluções inovadoras.
Entretanto, essa ascensão meteórica da IA não se dá sem consequências, e a sombra de seus perigos se projeta sobre a necessidade urgente de estabelecer mecanismos eficazes de controle e responsabilização.
Para os fãs de Black Mirror, as reflexões provocativas sobre a interseção da inteligência artificial (IA) no cotidiano são uma constante, pois, em situações distópicas e futuristas, a série mostra que “o uso excessivo ou mal direcionado da tecnologia pode distorcer a realidade, afetando as relações humanas e até mesmo manipulando a própria percepção da verdade” [1].
O caso chocante e real do jovem Sewell Setzer, de apenas 14 anos, que tirou a própria vida após interações perturbadoras com um chatbot da plataforma Character.AI, acende um alerta vermelho para a sociedade.
A tragédia expõe a face sombria da IA, revelando a vulnerabilidade humana diante de sistemas que, embora sofisticados, carecem da capacidade de compreender e lidar com as complexidades da emoção e da ética.
A mãe de Sewell, Megan Garcia, trava uma batalha legal contra a Character.AI e o Google, acusando-os de negligência, homicídio culposo e imposição intencional de sofrimento emocional. O processo argumenta que a plataforma, por meio de interações “hipersexualizadas e assustadoramente realistas” com um chatbot inspirado na série “Game of Thrones”, conduziu o adolescente a um estado de apego emocional extremo e distorcido, culminando em sua decisão fatal.
A tragédia levanta questões profundas sobre a responsabilidade das empresas que desenvolvem e comercializam IA, em especial quando se trata de tecnologias com potencial para impactar a saúde mental e o bem-estar dos usuários, especialmente os mais jovens [2].
A busca por justiça no caso de Sewell esbarra em um cenário jurídico ainda em construção, onde a legislação se esforça para acompanhar o ritmo acelerado da inovação tecnológica.
Inteligência artificial nos EUA
Nos Estados Unidos, a regulamentação da IA se encontra em um estado fragmentado, com diferentes agências governamentais, como a Comissão Federal de Comércio (FTC), supervisionando aspectos específicos da tecnologia, sem que haja uma lei federal abrangente que estabeleça diretrizes claras e eficazes para o desenvolvimento e uso da IA [3].
Essa lacuna legal coloca em risco a segurança e os direitos dos cidadãos, abrindo espaço para a utilização irresponsável da IA por empresas que priorizam o lucro em detrimento do bem-estar social. No Brasil, a discussão sobre a regulamentação da IA avança, com projetos de lei em tramitação no Congresso Nacional.
O PL 21/20 e o PL 2.338/23 buscam estabelecer um marco regulatório para a IA, definindo direitos e deveres para empresas e usuários, com o objetivo de garantir o desenvolvimento e a utilização ética, transparente e segura dessa tecnologia. O PL 2.338/23, inspirado na legislação europeia, propõe a classificação de sistemas de IA por níveis de risco, impondo obrigações proporcionais à magnitude dos riscos potenciais [4] [5].
A aprovação de uma legislação específica para a IA no Brasil é crucial para proteger os direitos dos cidadãos, estimular a inovação responsável e garantir que os benefícios da IA sejam distribuídos de forma justa e equitativa e para que a IA não vire um “vírus-dot-gov” em nosso sistema social.
Código de Defesa do Consumidor
Enquanto a legislação específica para a IA ainda se encontra em desenvolvimento, o Código de Defesa do Consumidor (CDC) brasileiro se apresenta como um importante instrumento para a proteção dos consumidores em face aos riscos da IA.
O CDC, baseado no princípio da responsabilidade objetiva, responsabiliza o fornecedor pelos danos causados ao consumidor, independentemente da existência de culpa. Esse princípio se aplica a produtos e serviços que utilizam IA, abrangendo desde softwares e dispositivos autônomos até plataformas de dados e serviços automatizados [6].
A aplicação do CDC ao universo da IA impõe às empresas a obrigação de garantir a segurança, a qualidade e a adequação de seus produtos e serviços, além de assegurar a transparência e o fornecimento de informações claras e precisas sobre o funcionamento da IA.
A falta de transparência, como o uso de algoritmos “caixa-preta” que tomam decisões sem que o consumidor compreenda os critérios utilizados, pode configurar violação do direito à informação e gerar responsabilização. O CDC também protege o consumidor contra práticas comerciais abusivas que se utilizam da IA, como a manipulação de preços, a discriminação na oferta de produtos e serviços e o marketing abusivo.
Mas quais seriam alguns dos potenciais danos causados pela IA passíveis de responsabilização segundo o CDC?
O Código de Defesa do Consumidor (CDC) não menciona a inteligência artificial explicitamente, já que foi criado antes da popularização da tecnologia. Entretanto, seus princípios gerais se aplicam a produtos e serviços que usam IA, definindo os tipos de danos pelos quais os fornecedores podem ser responsabilizados.
Danos por defeitos: Falhas de segurança em sistemas autônomos ou inadequação da IA ao fim a que se destina;
Danos por vícios: Algoritmos que geram resultados incorretos ou falhos, prejudicando o consumidor;
Danos por discriminação: Decisões automatizadas tomadas por IA que discriminam o consumidor;
Danos morais por violação de privacidade: Coleta e tratamento de dados pessoais por IA sem o consentimento informado do consumidor ou sem garantir a segurança dos dados, mesmo que consumidor bystander;
Danos por práticas comerciais abusivas: Uso de IA para manipular preços, discriminar consumidores ou realizar marketing abusivo.
Como a responsabilidade do fornecedor no CDC é objetiva, ou seja, o fornecedor é responsabilizado pelos danos, independentemente de culpa, bastaria a comprovação do dano e do nexo causal com a IA.
Entretanto, a complexidade da IA e a falta de transparência em alguns sistemas (“caixa-preta”) podem dificultar a identificação do defeito, vício ou prática abusiva. Nesses casos, o ônus da prova pode ser invertido, como previsto no CDC, cabendo ao fornecedor comprovar que sua IA não causou o dano.
LGPD e Marco Civil da Internet
Já a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet são marcos regulatórios importantes no Brasil, mas não abordam a IA de forma específica. No entanto, assim como no CDC, seus princípios gerais se aplicam ao uso da IA, especialmente no que diz respeito à coleta, processamento e proteção de dados pessoais [7] [8].
A LGPD estabelece diretrizes para o tratamento de dados pessoais por qualquer organização, pública ou privada. No contexto da IA, a LGPD é crucial para garantir que:
Os dados pessoais utilizados para treinar algoritmos de IA sejam coletados e tratados de forma justa, transparente e legal;
Os indivíduos tenham o direito de saber como seus dados estão sendo utilizados por sistemas de IA e para quais finalidades;
As empresas que usam IA implementem medidas de segurança para proteger os dados pessoais contra acessos não autorizados e vazamentos.
A LGPD também garante aos titulares de dados o direito de solicitar a correção, exclusão ou anonimização de seus dados, o que é relevante em casos de decisões automatizadas discriminatórias tomadas por IA.
Já o Marco Civil da Internet foca na proteção da liberdade de expressão, privacidade e neutralidade da rede. Embora não trate diretamente da IA, o Marco Civil impõe obrigações aos provedores de internet e aplicações online, que podem ser relevantes no contexto da IA:
Responsabilidade por conteúdo gerado por IA: Provedores de aplicações online que utilizam IA para gerar conteúdo (como chatbots) podem ser responsabilizados por danos causados por esse conteúdo, especialmente se for considerado ilegal ou violar direitos de terceiros;
Transparência e informação aos usuários: Provedores devem informar os usuários sobre a utilização de IA em seus serviços, como no caso de algoritmos de recomendação ou moderação de conteúdo;
Proteção da privacidade: Provedores devem adotar medidas para proteger os dados pessoais dos usuários, mesmo quando coletados e processados por sistemas de IA.
Dificuldade na responsabilização por danos
Todas estas normas são importantes, mas apresentam desafios, pois as tecnologias evoluem rapidamente e a legislação precisa se adaptar. A falta de especificidade sobre IA nas leis existentes pode gerar incertezas e dificultar a responsabilização por danos.
Como acima já destacado, a discussão sobre uma legislação específica para IA no Brasil está em andamento, como demonstrado pelos Projetos de Lei 21/2020 e 2.338/2023. Esses projetos buscam:
Estabelecer princípios éticos para o desenvolvimento e uso da IA, como a não discriminação, a transparência e a responsabilidade;
Criar mecanismos de controle e supervisão para sistemas de IA, especialmente aqueles considerados de alto risco;
Definir a responsabilidade civil por danos causados por IA, abrangendo desenvolvedores, fornecedores e usuários.
O Brasil também observa as tendências internacionais, como a Lei de IA da União Europeia (AI Act), que pode influenciar a legislação brasileira. A regulamentação da IA é fundamental para garantir que a tecnologia seja utilizada de forma ética, segura e em benefício da sociedade.
A LGPD, o Marco Civil e o CDC fornecem uma base legal importante, mas uma legislação específica para IA é crucial para lidar com os desafios e as complexidades da tecnologia.
Além disso, a crescente humanização da IA, impulsionada por avanços em áreas como o processamento de linguagem natural, tem levado ao desenvolvimento de chatbots cada vez mais sofisticados, capazes de simular conversas e interações humanas de forma convincente.
Riscos no uso de inteligência artificial
Essa capacidade de imitar a comunicação humana, embora promissora em diversos campos, apresenta riscos consideráveis quando se trata da saúde mental dos usuários. A sensação de conexão e intimidade que os chatbots podem proporcionar, especialmente em momentos de fragilidade emocional, pode levar à dependência e ao isolamento, substituindo interações humanas genuínas por relações artificiais e potencialmente prejudiciais.
Inclusive, especialistas alertam para os perigos da utilização da IA como substituto para terapias tradicionais.
A busca por consolo e apoio emocional em chatbots, embora compreensível em um mundo cada vez mais digitalizado e individualista, pode mascarar problemas de saúde mental e impedir que as pessoas busquem ajuda profissional qualificada.
A IA, por mais avançada que seja, não possui a capacidade de oferecer um tratamento adequado para questões complexas como depressão, ansiedade e trauma, e sua utilização como ferramenta terapêutica sem a devida supervisão profissional pode agravar a situação dos usuários, levando a consequências desastrosas como o caso de Sewell Setzer.
A regulamentação da IA é um imperativo global, que demanda a união de esforços entre governos, empresas, especialistas e a sociedade civil. A criação de leis eficazes que responsabilizem as empresas pelos danos causados por seus sistemas de IA, a promoção da pesquisa e desenvolvimento de IA ética e transparente, e a educação da sociedade sobre os benefícios e riscos da IA são medidas essenciais para garantir que essa poderosa ferramenta seja utilizada para o bem da humanidade.
O caso da Character.AI, embora trágico, serve como um chamado à ação, um poderoso lembrete de que a inovação tecnológica desenfreada, sem a devida atenção à ética, à segurança e ao bem-estar humano, pode ter consequências devastadoras.
Limites éticos e responsabilidade civil no uso de IA
Em suma, a inteligência artificial, com sua capacidade de aprendizado e autonomia, nos coloca diante de um futuro que pode facilmente se transformar em um episódio de Black Mirror.
A promessa de inovação e progresso caminha lado a lado com a sombra de tragédias como a de Sewell Setzer, revelando a necessidade urgente de uma reflexão profunda sobre os limites éticos e a responsabilidade civil no desenvolvimento e uso da IA.
A construção de um futuro onde a IA seja uma força propulsora do bem-estar social, e não um espelho distorcido da nossa própria falibilidade, depende da união de esforços entre governos, empresas e sociedade civil. A regulamentação eficaz, a pesquisa ética e a educação são os pilares para garantir que a inteligência artificial, ao invés de nos conduzir a um futuro distópico, reflita os melhores aspectos da nossa humanidade
Por outro lado a responsabilidade civil das empresas, aliada à conscientização dos usuários e à implementação de uma legislação robusta e abrangente, certamente contribuirão para a construção de um futuro em que a IA possa ser utilizada de forma responsável e segura, impulsionando o progresso social sem comprometer a dignidade e os direitos humanos.
Afinal, queremos um futuro em que a tecnologia seja uma aliada, e não uma ameaça “cyber-nética”. Sejamos protagonistas da nossa história, e não personagens de um episódio de Black Mirror!
[1] Isso é muito Black Mirror: avanço da inteligência artificial afeta nossa percepção da realidade? – Consumidor Moderno Acessado em 06/11/2024.
[2] Character.AI: mãe culpa empresa por suicídio do filho – 30/10/2024 – Tec – Folha Acessado em 06/11/2024.
[3] Fórum Brasileiro de IA — Lawgorithm Acessado em 06/11/2024.
[4] Portal da Câmara dos Deputados Acessado em 06/11/2024.
[5] PL 2338/2023 – Senado Federal Acessado em 06/11/2024.
[6] CDC. Art. 14.
Encontrou um erro? Avise nossa equipe!