iOS第三方做濾鏡最主流的開源框架GPUImage


GPUImage是現在iOS做濾鏡最主流的開源框架。作者BradLarson基於openGL對圖片處理單元進行封裝,提供出GPUImageFilter基類,配合shader,常用濾鏡都拿下不是問題。  GPUImage中的有幾個概念:

⁃ output,輸出源

⁃ intput,輸入源

⁃ filter,濾鏡

所以一個完整的濾鏡處理流程是: output+X+input,X就是濾鏡組(1+個濾鏡)。GPUImage為了方便,新版本中提供了GPUImageFilterPipeline 這個東西,方便用戶使用多個濾鏡組合,不用擔心前后的鏈式邏輯。

GPUImage將圖片濾鏡處理和動態濾鏡分開了,動態濾鏡是按照上面那個流程,但圖片處理卻是以(output+filter)*X + input這種邏輯。如果處理一張圖片的效果需要用到多個濾鏡組合,用一個濾鏡生成一張圖片output,然后傳給下一個濾鏡處理,這個過程中如果濾鏡疊加次數比較多,或者這個濾鏡效果被調用多次,這樣消耗的內存是特別大的,每個濾鏡處理后導出的圖片output都存在內存中,如果原圖特別大,估計內存要爆了。

如果都是以output+X+input這種模式來處理的,這樣代碼邏輯單一,效率高,吃內存也沒那么多。看了源碼知道output +X+ input ,當X為多個時,上個濾鏡n處理得到的紋理,還存在GPU顯存中,GPU直接將這張紋理傳給了n+1作為其output,這樣整個濾鏡流程下來,只有一張紋理內存的占用。

以這條線來走,過程中基本就沒遇到什么問題,只是代碼結構設計和封裝耗時。項目里,發現濾鏡模塊調用完了以后,內存上去了下不來,反復檢查,所有GPUImage相關元素都已經釋放了。后來想到了顯存,arc環境下,只負責回收oc對象的內存,顯存自然需要GPUImage使用者自己來回收,這樣也就容易了,翻GPUImage的api,知道

GPUImageContext中有個framebufferCache:

 

[[GPUImageContextsharedImageProcessingContext].framebufferCachepurgeAllUnassignedFramebuffers]。

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM