在 5 月份,我們曾介紹過一個名為 DragGAN 的圖像編輯工具,當(dāng)時這個項目就曾表示將會 6 月公布源代碼,如今他們兌現(xiàn)承諾,正式在 GitHub 上傳了源代碼。 先給還不知道 DragGAN 的讀者簡要介紹一下,DragGAN 是由 Google 的研究人員與 Max Planck 信息學(xué)研究所和麻省理工學(xué)院 CSAIL 一起開發(fā)的項目,是一個非常直觀的圖像編輯工具,用戶只需要控制圖像中的像素點和方向,就可以快速調(diào)整照片主體的位置、姿態(tài)、表情、大小和角度等。 DragGAN 的研究人員通過不依賴領(lǐng)域特定的建;蜉o助網(wǎng)絡(luò),提出了一個通用框架。為了實現(xiàn)這一點,DragGAN 包含兩個主要組成部分:基于特征的運動監(jiān)督,引導(dǎo)手柄點向目標位置移動;以及一種新的點追蹤方法,利用判別生成器特征來定位手柄點的位置。 研究人員表示,他們的方法在基于 GAN 的操作中優(yōu)于 SOTA,并為圖像編輯開辟了新方向。在接下來的幾個月里,他們希望將基于點的編輯擴展到 3D 生成模型。 雖然公布了源代碼,但源代碼有嚴格的限制: 本作品及其任何衍生作品只能用于或打算用于非商業(yè)用途。盡管有上述規(guī)定,英偉達公司及其附屬機構(gòu)可以在商業(yè)上使用該作品和任何衍生作品。在此,"非商業(yè)" 是指僅用于研究或評估目的。
項目地址:https://github.com/XingangPan/DragGAN |