OpenAI desmente notícias sobre alegada intenção de gerar pornografia com a sua IA
Na quarta-feira, a OpenAI lançou um Model Spec que detalha como pretende que os seus modelos de IA se comportem. Há uma secção com foco no conteúdo Not safe for work (NSFW) que dá a impressão de que a empresa está a explorar maneiras de fazer pornografia com IA. Mas a gigante já veio desmentir as assunções.
OpenAI vem desmentir assunções sobre pornografia com IA
Não temos intenção de criar pornografia gerada por IA. Temos fortes salvaguardas nos nossos produtos para evitar deepfakes, que são inaceitáveis, e priorizamos a proteção das crianças. Também acreditamos na importância de explorar cuidadosamente as conversas sobre sexualidade em contextos adequados à idade.
Disse um porta-voz da OpenAI num e-mail.
A secção que levou algumas pessoas a acreditar que a pornografia estava em andamento na OpenAI concentra-se no conteúdo NSFW. A empresa escreve que os seus modelos não devem atender a solicitações de conteúdo inadequado que incluem "erotismo, sangue extremo, calúnias e palavrões não solicitados".
No entanto, enfatiza que os programadores estão "a explorar se podemos fornecer de forma responsável a capacidade de gerar conteúdo NSFW em contextos apropriados para a idade por meio da API e do ChatGPT". O Model Spec continua a fornecer um exemplo de conteúdo NSFW apropriado que é permitido, como ser solicitado a escrever uma letra de uma música que contenha um palavrão.
A pornografia com IA, em particular os deepfakes, criou muita controvérsia no ano passado. Em janeiro, a Taylor Swift foi alvo de uma onda de imagens falsas não consensuais de adultos com IA, utilizando a sua imagem, que se espalharam pelas redes sociais.
No mês passado, uma mulher do estado de Washington participou num site da lotaria estatal, que acabou por criar uma fotografia dela nua gerada por IA.
A empresa-mãe do Pornhub foi contactada pela Gizmodo para comentar a perspetiva de a OpenAI abrir as comportas da pornografia gerada por IA e um porta-voz escreveu que a empresa não tolera qualquer "material não consensual nas nossas plataformas, incluindo deepfakes".
Leia também: