在 5 月份,我們?cè)榻B過一個(gè)名為 DragGAN 的圖像編輯工具,當(dāng)時(shí)這個(gè)項(xiàng)目就曾表示將會(huì) 6 月公布源代碼,如今他們兌現(xiàn)承諾,正式在 GitHub 上傳了源代碼。 先給還不知道 DragGAN 的讀者簡(jiǎn)要介紹一下,DragGAN 是由 Google 的研究人員與 Max Planck 信息學(xué)研究所和麻省理工學(xué)院 CSAIL 一起開發(fā)的項(xiàng)目,是一個(gè)非常直觀的圖像編輯工具,用戶只需要控制圖像中的像素點(diǎn)和方向,就可以快速調(diào)整照片主體的位置、姿態(tài)、表情、大小和角度等。 DragGAN 的研究人員通過不依賴領(lǐng)域特定的建;蜉o助網(wǎng)絡(luò),提出了一個(gè)通用框架。為了實(shí)現(xiàn)這一點(diǎn),DragGAN 包含兩個(gè)主要組成部分:基于特征的運(yùn)動(dòng)監(jiān)督,引導(dǎo)手柄點(diǎn)向目標(biāo)位置移動(dòng);以及一種新的點(diǎn)追蹤方法,利用判別生成器特征來(lái)定位手柄點(diǎn)的位置。 研究人員表示,他們的方法在基于 GAN 的操作中優(yōu)于 SOTA,并為圖像編輯開辟了新方向。在接下來(lái)的幾個(gè)月里,他們希望將基于點(diǎn)的編輯擴(kuò)展到 3D 生成模型。 雖然公布了源代碼,但源代碼有嚴(yán)格的限制: 本作品及其任何衍生作品只能用于或打算用于非商業(yè)用途。盡管有上述規(guī)定,英偉達(dá)公司及其附屬機(jī)構(gòu)可以在商業(yè)上使用該作品和任何衍生作品。在此,"非商業(yè)" 是指僅用于研究或評(píng)估目的。
項(xiàng)目地址:https://github.com/XingangPan/DragGAN |