O aplicativo se tornou ponto principal em uma reportagem da Vice, que apontou como, com apenas um upload de imagem, o aplicativo pode produzir uma falsa imagem íntima de qualquer mulher, utilizando apenas uma imagem cuja vítima esteja vestida. Utilizando deep learning e associado a vários tipos de inteligências artificiais, o software permite o upload de uma foto com uma mulher vestida, gerando uma nova versão sem roupas. Até o momento, o App só funciona com mulheres. Mulheres especialistas fizeram alguns pronunciamentos sobre o aplicativo, em entrevista à Motherboeard. Muitas ressaltaram que o aplicativo é abominável, visto que ele invade diretamente vidas íntimas das mulheres, e que eles não possuem direito. Algumas apontaram a importância desse tipo de aplicativo não ser acessível ao público, pois ele pode cometer crimes previstos por lei, como o pornô revenge, considerado crime também no Brasil. Este aplicativo demonstra claramente o problema que muitas mulheres passam, pois há hoje fóruns onde os usuários podem pedir que especialistas se utilizem de imagens e vídeos íntimos de mulheres, conhecidas ou não, para compartilhamento online. Uma vez compartilhado, isso pode causar diversos problemas sérios às pessoas cujas imagens foram associadas. Aplicativos como o DeepNude, que infelizmente se tornaram muito divulgados, acabam por agravar esse tipo de problema. Justamente porque a premissa do sistema é facilitar a criação de imagens falsas. Com alguns cliques e o upload de uma imagem, o usuário tem o resultado desejado. E isso é realmente muito perigoso. Atualização: Após todo o debate sobre o aplicativo, ele foi totalmente desativado. Em um tweet oficial dos desenvolvedores, a equipe por trás do aplicativo disse que eles “subestimaram” o interesse pelo projeto. Além disso, comentaram que “a probabilidade de que as pessoas o usem de forma abusiva é muito alta”. Confira o tweet na íntegra abaixo: O app não será mais oferecido para venda, e não serão lançadas mais versões posteriores. Os desenvolvedores também alertaram ao público que o compartilhamento de conteúdo online, vai contra os termos de serviço do aplicativo. No entanto, ressaltaram que reconhecem que algumas cópias do aplicativo aparecerão.
O problema do Deepfake
Por mais que o aplicativo se preocupe em deixar claro que a imagem gerada é falsa, na era das fake news, imagens desse tipo podem facilmente ser confundidas com uma imagem real. Isso gera problemas sérios, podendo fazer com que feitos sejam atribuídos a quem não os praticou. Deepfakes já geram discussão desde seu início no Reddit em 2017, e até empresas como a Samsung já criaram seu aplicativo utilizando inteligência artificial e deep learning para criar seus próprios vídeos. Porém o problema se torna mais profundo que a tecnologia em si. Se as discussões sobre a tecnologia ser utilizada para pornografia já vinham à tona, outro alerta veio quando a prática começou a envolver políticos. Alguns vídeos de políticos circularam na internet usando falas que não são atribuídas a eles. Com a informação correndo muito rápido, fica muito fácil espalhar informações falsas de acordo com interesses próprios, fundamentadas por supostas provas em vídeo, e até mesmo em imagens falsas. Ressaltando novamente que, no caso de vídeos e imagens íntimas fakes, isso gera diversos problemas éticos e legais. As criações enganosas podem prejudicar a vida de uma ou várias pessoas, seja ela famosa ou anônima, e, por enquanto, a lei prevê penalidades para o chamado pornô revenge. O problema está na má utilização da tecnologia. A Samsung mostrou vários vídeos de quadros famosos conversando, e até mesmo a exposição Dalí Vive conseguiu colocar, através de inteligência artificial, o pintor conversando e tirando selfie com os visitantes. A tecnologia possui um potencial incrível, porém pode ser utilizada de má-fé pelos usuários. Veja também: Contas do Google Drive podem ser apagadas por armazenar nudes. Fonte: Motherboard.