Um estudo revelou que a facilitação do uso de ferramentas de inteligência artificial (IA) fez com que a criação de imagens de deepfake, principalmente de imagens íntimas de mulheres, aumentasse.
Os pesquisadores do Oxford Internet Institute (OII), da Universidade de Oxford, no Reino Unido, encontraram evidências de que existem quase 35.000 desses softwares disponíveis para download público. Eles conseguem gerar imagens de uma pessoa em 15 minutos com apenas 20 imagens de referência.
Existem disponíveis para baixar variantes de modelos de deepfake de pessoas identificáveis, como celebridades, e outras para pessoas menos expostas, com informações de seus perfis nas redes sociais.
De acordo com a análise dos cientistas, publicada em um estudo no começo de maio, 96% dessas ferramentas de IA são usadas para replicar imagens de mulheres — tanto as famosas quanto as que não são — principalmente da China, da Coreia, do Japão, do Reino Unido e dos Estados Unidos.
Muitas vezes os deepfakes são usados para gerar imagens íntimas não consensuais (NCII) com tags como “pornô”, “sexy” ou “nu”.
“Existe uma necessidade urgente de proteções técnicas mais robustas, políticas de plataforma mais claras e aplicadas de forma mais proativa, além de novas abordagens regulatórias para lidar com a criação e a distribuição desses modelos de IA prejudiciais”, disse Will Hawkins, autor principal do estudo.