istock
Um estudo revelou que a facilitação do uso de ferramentas de inteligência artificial (IA) fez com que a criação de imagens de deepfake, principalmente de imagens íntimas de mulheres, aumentasse
unsplash
Os pesquisadores do Oxford Internet Institute, da Universidade de Oxford, no Reino Unido, encontraram evidências de que existem quase 35 mil desses softwares disponíveis para download público
istock
Eles conseguem gerar imagens de uma pessoa em 15 minutos com apenas 20 imagens de referência
pexels
Existem disponíveis para download variantes de modelos de deepfake de pessoas identificáveis, como celebridades, e outras para pessoas menos expostas, com informações de seus perfis nas redes sociais
pedxels
De acordo com a análise dos cientistas, 96% dessas ferramentas de IA são usadas para replicar imagens de mulheres - tanto as famosas quanto as que não são - principalmente da China, Coreia, Japão, Reino Unido e Estados Unidos
pexels
Muitas vezes os deepfakes são usados para gerar imagens íntimas não consensuais (NCII) com tags como "pornô", "sexy" ou "nu"
pexels
“Existe uma necessidade urgente de proteções técnicas mais robustas, políticas de plataforma mais claras e aplicadas de forma mais proativa, além de novas abordagens regulatórias para lidar com a criação e a distribuição desses modelos de IA prejudiciais”, disse Will Hawkins, principal autor do estudo
pexels