前幾天發了一篇DFL2.0的文章,不少已經用過DFL的小伙伴都有一個疑問:DFL2.0到底有什么提升?有什么不一樣?我要不要更新?應該怎么更新?因為時間經歷的原因我也還沒有深入研究,但是可以和大家分享下以顯而易見的一些點。
* 僅支持N卡,不再支持A卡!
因為作者覺得支持A卡有點累,所以A卡被放棄了。對於A卡用戶來說有點可惜。 從深度學習的角度來說,確實是N卡支持的比較好。雖然A卡可能比較便宜性價比高,但是如果想要跑一些基於深度學習的軟件,尤其是開源軟件,還是推薦購買N卡。
* 支持N卡多卡訓練了
我本身是單卡沒有去測試,但是從更新記錄中可以看到,現在訓練模型的時候也支持多卡了。這對多卡用戶來說是一個好消息。
* 刪除了一堆模型和腳本

軟件解壓后,這一點顯而易見。 提取環節MF和DLIB已經成為過去式,現在只剩下S3FD,也不存在最佳GPU,所有GPU這些腳本了,對於GPU的選擇移動到了啟動后的命令行界面。排序也濃縮了成了一個sort腳本。原先的convert腳本名字改成了merged。當然這里最大的變化是,刪減了很多模型。其中包括H64,H128,DF,SAE。目前僅剩下Quick96和SAEHD模型。
在換臉軟件中H64可以說是經典模型,在AI換臉爆火的時候,當時那些看起來牛逼哄哄的視頻背后的算法都是和H64類似的。
* 交互方式做了改變。

同樣是命令行,但是交互方式稍微發生了一些變化。尤其關於模型的操作,增加了新建,命名,重命名等。基本所有環節都可以選擇CPU或者某個GPU來運行。
* 首次使用加載變快了。

在以往的版本中,首次解壓軟件后,走到第四步往往容易卡住,這個時間會持續幾分鍾。新版本已經基本解決了這個問題。
* 提取功能調整
從三個步驟變成了一個步驟,好處是萬一中斷了也不會功虧一簣。當然整體速度可能比早前的版本會慢一些。
*模型命名功能
以前訓練模型的時候都是以模型類型來命名的,現在可以自定義文件名。這樣的好處是,同一個目錄下,可以訓練無數個SAEHD或者Quick96而不會沖突。為了實現這一功能,模型文件中有添加了一個新的配置文件XXXX_default_options.dat。模型文件后綴從H5變成了npy。
* 模型不在兼容以前版本。
作為DFL的資深玩家,也算是見怪不怪了,想當年SAE狂更新的時候,動不動就要重練模型。就是苦了那些拼命練丹的同學!
* 模型迭代時間縮短了

1126版SAEHD模型默認參數情況下,單次迭代1219ms(顯卡1070) ,訓練10分鍾后效果如上!

新版本中SAEHD模型默認參數下,單次迭代442ms,訓練十分鍾效果如上。 對比一下,新版本的單次時間減少了很多,相同時間內,Loss值更低,預覽圖更好!至於到底效率提高了多少,還沒有進行嚴格的測試。
*SAEHD新增和修改了一些參數!
Autobackup every N hour :從原先的一個小時一次,可以選擇多少個小時備份一次。
super resolution power: 從原先的是否啟用改為可以輸入0~100的數值
erode/blur :默認值改為0
GAN power :用生成對抗式網絡來訓練神經網絡,強制神經網絡學習面部小細節。
True face power: 從原先的是否啟用改為可以輸入 0~1的數值
optimizer_mode:被移除
Place models and optimizer on GPU:新增。當你在GPU上訓練是時,默認將模型和權重放在GPU上以加速該過程。你也可以將它們放在CPU上以釋放額外的VRAM,從而可以配置更高的參數。
*交互式合成似乎無法自動進行
在之前的版本中,交互式合成方式,只需要按回車鍵就會自動進行,新版本可以確定按回車沒有用,其他鍵似乎也無法啟動自動合成,這樣就會比較崩潰了。
* 如何更新
安裝包可以從群文件獲取,只要解壓到和老版本不同的目錄即可,兩者不沖突,可以共存!
大概就是這些內容啦。
整體來說,作者付出了大量的時間和經歷對軟件進行了更新,也有些不錯的改進,對特定的需求人群比較有用。但是作為大部分應用使用者來說,可能並沒有太大的必要立馬去升級,眾多改變中並沒有顛覆性的內容。
軟件更新是非常常見的一個問題,作為研究者探索者自然會去嘗試新的版本,而作為使用者,其實只要某個功能點滿足了,就沒必要付出太大精力去更新!再等等,等穩定了再說。