github上faceswap項目的使用


github地址:https://github.com/deepfakes/faceswap

 

首先要根據他的要求進行安裝,這里注意新建一個conda的虛擬環境,在虛擬環境中安裝運行所需要的包,避免后面安裝包沖突的問題

 

面部提取,這里遇到一個問題,提示cuda和顯卡版本不兼容。檢查了nvidia-smi中顯示的硬件版本,以及conda list中cuda和cudnn的版本,和nvidia官網https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html上列出的對應版本列表:

 

 發現確實是不兼容(https://zhuanlan.zhihu.com/p/64376059),現有的cuda和cudnn版本較高,於是先把現有的版本卸載掉(這里卸載的是虛擬環境中的包),conda remove --name faceswap cudnn,conda remove --name faceswap cudatoolkit,然后再安裝對應的版本conda install cudatoolkit=9.2, conda install cudnn。再運行程序發現tensorflow也被卸載掉了,再安裝tensorflow:conda install tensorflow。最后可以跑通檢測臉部區域的程序。

 

訓練網絡

訓練一開始顯示缺少alignments.fsa文件。這是在上一步提取的過程中會自動保存在輸入文件夾中的。在這邊要在運行代碼時加上參數-ala 地址 和-alb 地址,然后就可以,但是運行中發現並沒有用到GPU?暫時不清楚怎么回事。

 

轉換圖片

先找一個視頻,然后用ffmpeg的命令:ffmpeg -i /path/to/my/video.mp4 /path/to/output/video-frame-%d.png

把視頻每一幀提取出來

然后用之前提取人臉區域的步驟提取人臉區域,這一步主要是為了獲得一個文件alignments.fsa(記錄每一張圖片中要轉換的人臉區域)

接着用python faceswap.py convert -i ~/faceswap/src/trump/ -o ~/faceswap/converted/ -m ~/faceswap/trump_cage_model/ -al alignments.fsa路徑   進行轉換。

最后再用ffmpeg命令將所有圖片轉換成視頻:ffmpeg -i video-frame-%d.png -c:v libx264 -vf "fps=25,format=yuv420p" out.mp4

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM