Opinião

Por que o 'caso Scarlett Johansson' pede urgência na regulação de IA

Autor

  • Rodrigo Martins Faria

    é juiz auxiliar da Presidência do TJ-MG na área de TI coordenador do Laboratório de Inovação (UAILab) do TJMG e especialista em inovação judicial e mestrando em Direito pela ENFAM.

    View all posts

26 de junho de 2024, 6h32

No último dia 13 de março, a OpenAI lançou a mais recente versão de sua ferramenta mais famosa, o ChatGPT-4o (Omni). “Omni”, em latim, significa “tudo”, demonstrando a capacidade da nova versão do ChatGPT de lidar com entradas e saídas de dados em diferentes formatos de linguagem natural, como texto, voz e imagem, para os mais variados propósitos.

Scarlett Johansson

Entre as principais novidades da última versão, está a capacidade de o sistema “falar” o resultado da interação, utilizando-se para isso de uma voz que imita a fala humana (veja um vídeo da nova versão aqui). Com essa última atualização, o ChatGPT consolidou a sua posição de ferramenta de inteligência artificial multimodal mais sofisticada da atualidade, o estado da arte entre as ferramentas disponíveis para consumo pelo público em geral.

No entanto, o lançamento do GPT-4o veio acompanhado de uma polêmica que promete abrir um novo capítulo nas discussões em torno da regulação ética dos modelos de inteligência artificial: o uso de uma voz muito parecida com a voz da atriz Scarlett Johansson.

Atualmente, estão disponíveis quatro tipos de voz, batizadas pela OpenAI de Juniper, Ember, Cove e Breeze. Entretanto, na data do lançamento ChatGPT-4o, havia uma quinta opção de voz disponível, chamada “Sky”. Para Johansson, essa voz soava de forma “assustadoramente similar” à sua voz. Mas a polêmica não para por aí.

Segundo Johansson, o diretor executivo da OpenAI, Sam Altman, teria a abordado em setembro de 2023 propondo a ela um acordo para utilizar a sua voz na nova versão do ChatGPT, inspirado pelo impacto positivo e sucesso absoluto que ela obteve no filme “Her”, de 2013, indicado a cinco Oscar e vencedor no melhor roteiro original, após ter dublado a inteligência artificial chamada Samantha, que protagonizou o filme apaixonando-se pelo personagem vivido pelo ator Joaquin Rafael Phoenix (veja o trailer do filme aqui).

Segundo Johansson, Altman acreditava que a voz dela poderia ajudar a reduzir o medo e a resistência das pessoas em relação ao uso da inteligência artificial, tornando a tecnologia mais carismática e confortável para o público. Johansson, no entanto, recusou. “Depois de muita consideração e por motivos pessoais, recusei a oferta”, continua o comunicado. “Nove meses depois, meus amigos, familiares e o público em geral notaram o quanto o mais novo sistema chamado ‘Sky’ soava como eu.”[1].

Apesar da recusa, o ChatGPT-4o foi lançado com a voz “Sky” em um timbre muito semelhante ao da voz de Johansson. A polêmica aumentou quando Altman fez uma referência ao filme “Her” em seu perfil da rede social X (ex-Tweeter), supostamente insinuando uma conexão intencional entre a voz “Sky” e a participação de Johansson no filme.

Spacca

Em resposta à polêmica, o CEO da OpenAI, Sam Altman, declarou que a voz “Sky” não era uma imitação de Johansson e que havia sido gravada por outra atriz profissional antes mesmo da proposta feita a Johansson. Mas, diante de insinuações de Johansson sobre a sua intenção em  processar a OpenAI, a disponibilização da voz “Sky” foi suspensa e não está mais disponível no ChatGPT-4o para acesso pelo público.

Direitos de personalidades na era digital

À parte a polêmica em torno da atriz hollywoodiana, que tem estreado novos capítulos a cada semana, o caso Johansson acrescentou mais uma camada ao medo de Hollywood em relação à inteligência artificial [2]. É que, sem a devida regulamentação, clones de voz e imagem correm o risco de serem utilizados sem qualquer pagamento aos seus titulares (atores e atrizes) ou aos detentores dos direitos de uso (indústria cinematográfica).

Por essa razão, o caso acendeu um novo debate sobre a privacidade de dados e a proteção dos direitos da personalidade na era digital. A falta de consentimento da pessoa titular autorizando o uso de voz sintetizada, que não é a voz real, mas é semelhante a ela, evidencia uma vulnerabilidade que precisa ser bem equacionada pela regulamentação atual e futura da inteligência artificial. Afinal, até que ponto uma voz “semelhante” estaria ou deveria estar protegida?  Qual o grau de semelhança que separa as situações protegidas das situações de uso permitido?

Uma voz sintetizada pode ser tão similar a ponto de se aproveitar dos atributos da voz e/ou imagem do titular que despertam o interesse do público, sem que, ao mesmo tempo, não tenha a similaridade necessária para garantir a proteção por direitos autorais, o que demonstra que a identidade é um conceito que tende a ficar mais complexo na era da IA.

Por exemplo, ao se criar uma voz sintetizada muito similar à voz do Cid Moreira, é possível que o público acredite se tratar da voz original do locutor. E mesmo que a voz não seja idêntica, é possível que o público identifique na imitação da voz a figura pública do autor, extraindo dela a simpatia e o carisma que atraem o público para a mensagem expressada na imitação. Como no exemplo, muitos profissionais, especialmente dubladores de desenhos animados, filmes e personagens famosos, dependem da identidade da voz, pois eles são contratados exatamente por terem conquistado com a voz a simpatia e o reconhecimento do público.

Esse contexto explica por que a regulamentação da inteligência artificial tem escalado níveis de importância e criticidade cada vez mais altos, especialmente a partir do lançamento da primeira versão do ChatGPT, no final de 2022.

Nesse sentido, a União Europeia aprovou recentemente o AI Act, estabelecendo o primeiro grande marco regulatório abrangente para limitar o desenvolvimento e uso de inteligência artificial dentro da comunidade europeia (saiba mais aqui [3]). Um dos principais pontos do AI Act é a vedação de uso de modelos de IA para situações consideradas de risco inaceitável, como manipulação cognitivo-comportamental de pessoas vulneráveis, pontuação social, categorização de pessoas e uso de sistemas de reconhecimento facial. Além desses, há também previsão de rigoroso controle sobre sistemas considerados de alto risco, como os modelos de IA embarcados em produtos sujeitos a controle de segurança e a legislação específica [4].

Regras éticas e de segurança

Embora os modelos de fundação [5], como é o caso do ChatGPT, não sejam considerados de alto risco, o AI Act estabelece regras específicas para garantir que o seu desenvolvimento e uso observem regras éticas e de segurança. Entre as principais regras, destacam-se requisitos de transparência e proteções a direitos autorais, entre eles:

  • a) necessidade de se divulgar que o conteúdo foi gerado por IA;
  • b) salvaguardas do modelo para evitar a geração de conteúdo ilegal; e, o mais importante para fins de se evitar a repetição do caso Johansson:
  • c) publicação de resumos de dados protegidos por direitos autorais usados ​​para treinamento[6].

A exigência de publicação de dados usados ​​para treinamento ajudaria a evitar situações como o caso Johansson, pois obrigaria as empresas a revelarem exatamente quais vozes foram utilizadas no treinamento. Isso permitiria que a titular do direito autoral, no caso Johansson, verificasse se a sua voz compôs a voz sintetizada “Sky”. Aliás, só o fato de haver obrigação legal de publicação desses resumos em princípio tornaria as empresas mais cuidadosas ao selecionar os dados para treinamento, reduzindo o risco de utilização indevida de material protegido por direitos autorais.

No Brasil, o Projeto de Lei nº 2338, de 2023, que dispõe sobre o uso da inteligência artificial no Brasil, estabelece uma série de princípios fundamentais que orientam o desenvolvimento, implementação e uso de sistemas de IA. Entre esses princípios, destacam-se a proteção da privacidade, a transparência, a explicabilidade e a auditabilidade, direitos essenciais para garantir a confiança e a segurança dos cidadãos na utilização dessas tecnologias. O artigo 3º, inciso V, traz a exigência de transparência, explicabilidade e auditabilidade dos modelos. A transparência, por exemplo, refere-se à obrigação das empresas de tornarem claras as operações dos modelos de IA, incluindo os dados utilizados, os algoritmos empregados e os resultados obtidos.

Em suma, a polêmica envolvendo a voz de Scarlett Johansson no ChatGPT-4o destaca a necessidade urgente de regulamentação da inteligência artificial. Governo, indústria e sociedade civil devem trabalhar juntos para desenvolver e implementar regras que garantam o uso ético e seguro da IA, protegendo os direitos individuais e promovendo a inovação responsável. Sem regras claras, há um grande risco de violação dos direitos de privacidade, manipulação de informações e exploração comercial não autorizada de atributos da personalidade, como a voz e a imagem. O caso Johansson é apenas um exemplo.

____________________

Referências

ALVAREZ, Vanessa Gonçalves. AI Act: projeto de estrutura regulatória de IA na União Europeia. Disponível em: https://www.conjur.com.br/2024-mar-14/ai-act-projeto-de-estrutura-regulatoria-de-ia-na-uniao-europeia/. Acesso em: 27 maio 2024.

AU NEWS. Scarlett Johansson row with OpenAI reminds us identity is a slippery yet important subject AI leaves everyone’s at risk. Disponível em: https://au.news.yahoo.com/scarlett-johansson-row-openai-reminds-054437742.html. Acesso em: 27 maio 2024.

CNN. Scarlett Johansson sues OpenAI over use of her voice in ChatGPT-4. Disponível em: https://edition.cnn.com/2024/05/22/tech/openai-scarlett-johansson-lawsuit-sam-altman/index.html. Acesso em: 27 maio 2024.

FRAZÃO, Ana. O ChatGPT e a voz de Scarlett Johansson: os desafios jurídicos do ‘roubo de identidade’. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/o-chatgpt-e-a-voz-de-scarlett-johansson-29052024?non-beta=1. Acesso em: 27 maio 2024.

NBC NEWS. Scarlett Johansson shocked and angered by OpenAI’s use of her voice. Disponível em: https://www.nbcnews.com/tech/tech-news/scarlett-johansson-shocked-angered-openai-voice-rcna153180. Acesso em: 27 maio 2024.

SCARLETT Johansson’s row with OpenAI reminds us identity is a slippery yet important subject AI leaves everyone’s at risk. Disponível em: https://theconversation.com/scarlett-johanssons-row-with-openai-reminds-us-identity-is-a-slippery-yet-important-subject-ai-leaves-everyones-at-risk-230677. Acesso em: 27 maio 2024.

360 NEWS. O ChatGPT e a voz de Scarlett Johansson. Disponível em: https://360news.com.br/o-chatgpt-e-a-voz-de-scarlett-johansson/. Acesso em: 27 maio 2024.


[1]  Cf. matéria disponível em: https://thebongtimes.com/world/scarlett-johansson-toma-medidas-legais-por-semelhancas-de-voz-no-chatgpt-mas-documentos-mostram-que-nao-foi-gerado-por-ia/18627/. Acesso em 16 jun. 2024.

[2] https://www.cnnbrasil.com.br/entretenimento/disputa-entre-scarlett-johansson-e-openai-realca-temor-de-hollywood-com-ia/

[3] Disponível em: https://www.conjur.com.br/2024-mar-14/ai-act-projeto-de-estrutura-regulatoria-de-ia-na-uniao-europeia/. Acesso em: 19 jun. 2024.

[4] Entre eles, destacam-se: brinquedos, aviação, carros, dispositivos médicos e elevadores, gestão e operação de infraestrutura crítica; educação e formação profissional; emprego, gestão de trabalhadores e acesso ao trabalho independente; acesso e usufruto de serviços privados essenciais e serviços e benefícios públicos; aplicação da lei; gestão da migração, do asilo e do controlo das fronteiras; assistência na interpretação jurídica e aplicação da lei.

[5] A expressão “modelos de fundação” refere-se a sistemas de inteligência artificial que foram treinados em grandes volumes de dados diversificados e que servem como base para uma ampla gama de tarefas e aplicações subsequentes. Esses modelos possuem características que os tornam adaptáveis a diferentes contextos e necessidades. A aplicação mais comum é o uso para aplicações relacionadas a linguagem (escrita e falada).

[6] Disponível em: https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence. Acesso em: 19 jun. 2024.

Autores

  • é juiz auxiliar da Presidência do TJ-MG na área de TI, coordenador do Laboratório de Inovação (UAILab) do TJMG e especialista em inovação judicial e mestrando em Direito pela ENFAM.

Encontrou um erro? Avise nossa equipe!