Imagens criadas por descrições de texto preocupam especialistas
Unsplash
Sistemas de inteligência artificial como o Imagen, do Google Research, e o DALL-E 2, da Open AI, são capazes de produzir imagens surpreendentes a partir de descrições de texto
DALL-E 2
As imagens podem ser realistas, detalhadas, bobas ou até artísticas, e estão sendo amplamente compartilhadas nas mídias sociais
DALL-E 2
Mas especialistas alertam que a tecnologia pode perpetuar preconceitos e estereótipos, e também tem o potencial de ser usada para espalhar desinformação
DALL-E 2
A OpenAI e o Google Research reconheceram que seus sistemas são propensos a preconceitos de gênero e raça, e a retratar estereótipos culturais ocidentais
DALL-E 2
Uma das coisas que temos que fazer é entender que a IA é muito legal e pode fazer algumas coisas muito bem. Mas é uma coisa imperfeita. Tem suas limitações. Temos que ajustar nossas expectativas. Não é o que vemos nos filmes
Julie Carpenter, pesquisadora de ética em ciências emergentes
Cientistas temem que seja impossível impedir que tais sistemas sejam usados de forma maliciosa, como em deepfakes (tecnologia de edição de vídeos usada para criar pornografia falsa)
Unsplash
Pesquisadores do Google admitem usar um conjunto de dados que inclui pornografia, insultos racistas e “estereótipos sociais prejudiciais”
DALL-E 2
Por enquanto, OpenAI e Google estão tentando manter o foco em fotos fofas e longe daquelas que possam ser perturbadoras ou mostrar humanos
Imogen
Os atuais usuários selecionados para o acesso antecipado ao DALL-E 2 devem concordar em não tentar criar fotos “que possam causar danos”
DALL-E 2