INTELIGÊNCIA ARTIFICIAL

Imagens criadas por descrições de texto preocupam especialistas

Unsplash

Sistemas de inteligência artificial como o Imagen, do Google Research, e o DALL-E 2, da Open AI, são capazes de produzir imagens surpreendentes a partir de descrições de texto

DALL-E 2

As imagens podem ser  realistas, detalhadas, bobas ou até artísticas, e estão sendo amplamente compartilhadas  nas mídias sociais

DALL-E 2

Mas especialistas alertam  que a tecnologia pode perpetuar preconceitos e estereótipos,  e também tem o potencial de ser usada para espalhar desinformação

DALL-E 2

A OpenAI e o Google Research reconheceram que seus sistemas são propensos a preconceitos  de gênero e raça, e a retratar estereótipos culturais ocidentais

DALL-E 2

Uma das coisas  que temos que fazer  é entender que a IA  é muito legal e pode fazer algumas coisas muito bem. Mas é uma coisa imperfeita. Tem suas limitações. Temos que ajustar nossas expectativas. Não é o que vemos nos filmes

Julie Carpenter, pesquisadora  de ética em ciências emergentes 

Cientistas temem que seja impossível impedir que tais sistemas sejam usados de forma maliciosa, como em deepfakes (tecnologia de edição de vídeos usada para criar pornografia falsa)

Unsplash

Pesquisadores do Google admitem usar um conjunto  de dados que inclui pornografia, insultos racistas e “estereótipos sociais prejudiciais”

DALL-E 2

Por enquanto, OpenAI e Google estão tentando manter o foco em fotos fofas e longe daquelas que possam ser perturbadoras ou mostrar humanos

Imogen

Os atuais usuários selecionados para o acesso antecipado  ao DALL-E 2 devem concordar  em não tentar criar fotos  “que possam causar danos”

DALL-E 2