De agosto para cá, ao menos quatro casos de jovens que se tornaram alvo de falsos nudes foram registrados no país. Juntos, eles acumulam mais de 40 vítimas nas capitais Belo Horizonte, Recife, Rio e São Paulo. E, em todos, colegas de escola são os principais suspeitos de fazer as montagens, com inteligência artificial, e divulgá-las em redes sociais.
Para especialistas, aplicativos de IA podem ser a nova arma para violentar mulheres, sobretudo menores de 18 anos.
Esses casos esbarram na ausência de uma legislação com regras claras para uso de IA no país, e as penas para as empresas responsáveis por gerar esse tipo de imagem não são claras.
Além de episódios que envolvem menores de idade, também veio a público o caso da atriz Isis Valverde, vítima de um crime semelhante.
O caso da atriz foi usado como justificativa para um projeto de lei elaborado pelo deputado federal Marcelo Álvaro Antônio (PL-MG). No texto, apresentado na última segunda (6), é prevista a pena de 6 meses a 1 ano para quem praticar esse tipo de crime.
Professor de direito da FGV, Alexandre Pacheco afirma que a imagem produzida pela inteligência artificial pode tanto afetar a reputação quanto a saúde mental das vítimas. "A foto sempre pode reaparecer."
Segundo ele, os autores das imagens geradas por IA podem responder, no caso de vítimas adultas, pelo artigo do Código Penal que criminaliza a produção e divulgação de montagens e imagens manipuladas de cunho sexual -a pena varia de 6 meses a 1 ano de prisão, além de multa.
No caso de menores de idade, a punição pode ser de 1 a 3 anos de prisão, além de multa, conforme o ECA (Estatuto da Criança e do Adolescente).
A advogada Izabella Borges, especialista em questão de gênero e fundadora do Instituto Survivor, diz que o advento tecnológico implica novos riscos para as mulheres, meninas e adolescentes.
Borges cita um caso, atendido por ela, de uma adolescente cuja imagem foi manipulada por meio de IA. Colegas compartilharam o falso nude em agosto deste ano. "Houve divulgação para o grupo de alunos [da escola paulistana] no qual a vítima estava inserida."
Para a advogada, adolescentes autores desse crime demonstram "desconhecer limites éticos e civilizatórios e acreditam na impunidade".
Nesse tipo de caso, a denúncia pode ser feita em uma delegacia especializada, como a de crimes cibernéticos. Outra possibilidade é a solicitação de medidas cautelares, como a proibição de compartilhamento das imagens, contato e aproximação dos autores das imagens com as vítimas.
No caso do falso nude mencionado por Borges, houve a instauração de uma investigação criminal. A Justiça proibiu a circulação das imagens e determinou que fossem removidas. "As escolas precisam assumir um maior protagonismo ao lidar com esses casos", diz a advogada.
Fora do Brasil, casos semelhantes também já foram registrados em escolas, como em uma instituição de ensino na Espanha, como divulgado pela BBC, e em um colégio em Nova Jersey, de acordo com o Wall Street Journal.
É comum que os alvos desse tipo de crime sejam mulheres. Em 2019, estudo da empresa de tecnologia Sensity AI mapeou casos de "deepfake" (montagem em que se utiliza o rosto ou voz de alguém) e demonstrou que 96% das imagens geradas por aplicativos são pornográficas e as principais vítimas, mulheres.
Uma pesquisa divulgada pelo site The Wired apontou um aumento na divulgação de vídeos pornográficos não consensuais que recorrem a "deepfake". Nos primeiros nove meses deste ano, 113 mil vídeos foram enviados para os sites de pornô deepfake -o número representa um aumento de 54% em relação aos 73 mil vídeos enviados em 2022.
Em um dos sites que faz este tipo de serviço é explicado que, no início da inteligência artificial, imagens de falsos nudes eram concentradas em mulheres.
Com o avanço da tecnologia, porém, tornou-se possível gerar a montagem de imagens de homens. Nesse mesmo site, há somente fotos de mulheres nuas para divulgar a aplicação da ferramenta.
A plataforma ainda celebra que, devido aos avanços tecnológicos em 2023, as imagens são cada vez mais realísticas e capazes de substituir roupas "de forma perfeita" -entre os exemplos, o site mostra mulheres de lingeries ou fantasias fetichistas.
A Folha de S.Paulo analisou quatro plataformas que oferecem o serviço, entre os quais um robô de um aplicativo de mensagens, sites e aplicativo. Em três deles é descrito que o uso de imagens de jovens menores de idade é proibido --só um informa que, caso receba denúncias desta natureza, o conteúdo será prontamente deletado.
Um dos sites afirma que não deve ser realizado chamado o "revenge porn" (quando alguém divulga fotos ou vídeos da pessoa com quem se relacionava) e nem utilizadas imagens de terceiros. Mas a plataforma não deixa claro se dispõe de mecanismos para impedir que fotos de outras pessoas sejam alteradas sem consentimento.
Em um aplicativo é apenas descrito que os conteúdos são de responsabilidade dos usuários que geraram as imagens de terceiros.
Segundo Natanrry Reis, advogada especializada em direito digital, a legislação brasileira prevê que os aplicativos devem deixar claro nos termos de uso e política de privacidade sobre o uso de imagem de menores e, também, informar as regras do uso de publicação.
A empresa deve especificar se pode ser utilizada por menores de idade ou não e abordar o uso de imagens íntimas e suas consequências para o usuário.
"Ainda que as imagens tenham sido geradas pelo aplicativo, a divulgação foi por uma pessoa física e é ela quem vai responder pelo uso, divulgação indevida e não autorizado das imagens", explica ela.
Diretor-fundador do Data Privacy Brasil, Bruno Bioni afirma que as discussões em relação aos falsos nudes aquecem o debate em relação à importância da regulação da inteligência artificial.
"Esses modelos de IAs podem trazer riscos significativos, que vão desde armas biológicas a crimes cibernéticos em outro tipo de escala", diz ele. Por isso, as regulações se fazem necessárias para prever, inclusive, algum tipo de obrigação para quem desenvolve esse tipo IA.
Como fez, recentemente, o decreto do governo de Joe Biden, nos Estados Unidos, para regulamentar o uso da IA. Entre as medidas, está previsto a adoção de marca d'água em conteúdos gerados por IA e um relatório para identificar potenciais riscos aos trabalhadores.
"São novos riscos que exigem novas técnicas, novos direitos e deveres para a gente ter um melhor uso desse tipo de tecnologia. São necessárias novas regulações com novas políticas públicas", diz Bioni.
Seja sempre o primeiro a ficar bem informado, entre no nosso canal de notícias no WhatsApp e Telegram. Para mais informações sobre os canais do WhatsApp e seguir outros canais do DOL. Acesse: dol.com.br/n/828815.
Comentar