Android Camera 架構


和你一起終身學習,這里是程序員 Android

本篇文章主要介紹 Android 開發中的部分知識點,通過閱讀本篇文章,您將收獲以下內容:

一、Android Camera整體架構簡述
二、 Camera App層簡述
三、Camera Framework層簡述
四、Camera Hal3 子系統
五、下面需要梳理的重點-正在進行

一.Android Camera整體架構簡述

自Android8.0之后大多機型采用Camera API2 HAL3架構,
先盜改谷歌的一張圖,讀完整部代碼后再看這張圖,真的是很清晰,很簡潔,很到位.
原圖:https://source.android.google.cn/devices/camera

1.1 Android Camera 基本分層

Google Android 框架圖

從上圖得知,Android手機中Camera軟件主要有大體上有4層:

1.應用層:
 應用開發者調用AOSP提供的接口即可,AOSP的接口即Android提供的相機應用的通用接口,這些接口將通過Binder與Framework層的相機服務進行操作與數據傳遞;

2.Framework層:
 位於 frameworks/av/services/camera/libcameraservice/CameraService.cpp,相機Framework服務是承上啟下的作用,上與應用交互,下與HAL曾交互。

3.Hal層: 
硬件抽象層,Android 定義好了Framework服務與HAL層通信的協議及接口,HAL層如何實現有各個Vendor自己實現,如Qcom的老架構mm-Camera,新架構Camx架構,Mtk的P之后的Hal3架構.

4.Driver層: 
驅動層,數據由硬件到驅動層處理,驅動層接收HAL層數據以及傳遞Sensor數據給到HAL層,這里當然是各個Sensor芯片不同驅動也不同.

說到這為什么要分這么多層,大體上還是為了分清界限,升級方便, AndroidO Treble架構分析.

Android要適應各個手機組裝廠商的不同配置,不同sensor,不管怎么換芯片,從Framework及之上都不需要改變,App也不需要改變就可以在各種配置機器上順利運行,HAL層對上的接口也由Android定義死,各個平台廠商只需要按照接口實現適合自己平台的HAL層即可.

1.2 Android Camera工作大體流程

綠色框中是應用開發者需要做的操作,藍色為AOSP提供的API,黃色為Native Framework Service,紫色為HAL層Service.
描述一下步驟:

  1. App一般在MainActivity中使用SurfaceView或者SurfaceTexture+TextureView或者GLSurfaceView等控件作為顯示預覽界面的控件,共同點都是包含了一個單獨的Surface作為取相機數據的容器.

  2. 在MainActivity onCreate的時候調用API 去通知Framework Native Service CameraServer去connect HAL繼而打開Camera硬件sensor.

  3. openCamera成功會有回調從CameraServer通知到App,在onOpenedCamera或類似回調中去調用類似startPreview的操作.此時會創建CameraCaptureSession,創建過程中會向CameraServer調用ConfigureStream的操作,ConfigureStream的參數中包含了第一步中空間中的Surface的引用,相當於App將Surface容器給到了CameraServer,CameraServer包裝了下該Surface容器為stream,通過HIDL傳遞給HAL,繼而HAL也做configureStream操作

  4. ConfigureStream成功后CameraServer會給App回調通知ConfigStream成功,接下來App便會調用AOSP setRepeatingRequest接口給到CameraServer,CameraServer初始化時便起來了一個死循環線程等待來接收Request.

  5. CameraServer將request交到Hal層去處理,得到HAL處理結果后取出該Request的處理Result中的Buffer填到App給到的容器中,SetRepeatingRequest為了預覽,則交給Preview的Surface容器,如果是Capture Request則將收到的Buffer交給ImageReader的Surface容器.

  6. Surface本質上是BufferQueue的使用者和封裝者,當CameraServer中App設置來的Surface容器被填滿了BufferQueue機制將會通知到應用,此時App中控件取出各自容器中的內容消費掉,Preview控件中的Surface中的內容將通過View提供到SurfaceFlinger中進行合成最終顯示出來,即預覽;而ImageReader中的Surface被填了,則App將會取出保存成圖片文件消費掉.參考

  7. 錄制視頻可以參考該篇,這里不再贅述:[Android][MediaRecorder] Android MediaRecorder框架簡潔梳理

再簡單一張圖如下:

二. Camera App層簡述

應用層即應用開發者關注的地方,主要就是利用AOSP提供的應用可用的組件實現用戶可見可用的相機應用,主要的接口及要點在這
Android 開發者/文檔/指南/相機

應用層開發者需要做的就是按照AOSP的API規定提供的接口,打開相機,做基本的相機參數的設置,發送request指令,將收到的數據顯示在應用界面或保存到存儲中.

應用層開發者不需要關注有手機有幾個攝像頭他們是什么牌子的,他們是怎么組合的,特定模式下哪個攝像頭是開或者是關的,他們利用AOSP提供的接口通過AIDL binder調用向Framework層的CameraServer進程下指令,從CameraServer進程中取的數據.

基本過程都如下:

  1. openCamera:Sensor上電
  2. configureStream: 該步就是將控件如GLSurfaceView,ImageReader等中的Surface容器給到CameraServer.
  3. request: 預覽使用SetRepeatingRequest,拍一張可以使用Capture,本質都是setRequest給到CameraServer
  4. CameraServer將Request的處理結果Buffer數據填到對應的Surface容器中,填完后由BufferQueue機制回調到引用層對應的Surface控件的CallBack處理函數,接下來要顯示預覽或保圖片App中對應的Surface中都有數據了.

主要一個預覽控件和拍照保存控件,視頻錄制見[Android][MediaRecorder] Android MediaRecorder框架簡潔梳理

三. Camera Framework層簡述

Camera Framework層即CameraServer服務實現.CameraServer是Native Service,代碼在
frameworks/av/services/camera/libcameraservice/
CameraServer承上啟下,上對應用提供Aosp的接口服務,下和Hal直接交互.一般而言,CamerServer出現問題的概率極低,大部分還是App層及HAL層出現的問題居多.
CameraServer架構主要架構也如第一張圖所示,主要還是Android自己的事.

3.1 CameraServer初始化

frameworks/av/camera/cameraserver/cameraserver.rc
service cameraserver /system/bin/cameraserver
    class main
    user cameraserver
    group audio camera input drmrpc
    ioprio rt 4
    writepid /dev/cpuset/camera-daemon/tasks /dev/stune/top-app/tasks
    rlimit rtprio 10 10

CameraServer由init啟動,簡單過程如下:

詳細過程如下:

3.2 App調用CameraServer的相關操作

簡單過程如下:

詳細過程如下:

3.2.1 open Camera:

3.2.2 configurestream

3.2.3 preview and capture request:

3.2.4 flush and close

四 Camera Hal3 子系統

Android 官方講解 HAL 子系統
Android 的相機硬件抽象層 (HAL) 可將 android.hardware.camera2 中較高級別的相機框架 API 連接到底層的相機驅動程序和硬件。
Android 8.0 引入了 Treble,用於將 CameraHal API 切換到由 HAL 接口描述語言 (HIDL) 定義的穩定接口。
盜圖一張:

1.應用向相機子系統發出request,一個request對應一組結果.request中包含所有配置信息。其中包括分辨率和像素格式;手動傳感器、鏡頭和閃光燈控件;3A 操作模式;RAW 到 YUV 處理控件;以及統計信息的生成等.一次可發起多個請求,而且提交請求時不會出現阻塞。請求始終按照接收的順序進行處理。

2.圖中看到request中攜帶了數據容器Surface,交到framework cameraserver中,打包成Camera3OutputStream實例,在一次CameraCaptureSession中包裝成Hal request交給HAL層處理. Hal層獲取到處理數據后返回給CameraServer,即CaptureResult通知到Framework,Framework cameraserver則得到HAL層傳來的數據給他放進Stream中的容器Surface中.而這些Surface正是來自應用層封裝了Surface的控件,這樣App就得到了相機子系統傳來的數據.

3.HAL3 基於captureRequest和CaptureResult來實現事件和數據的傳遞,一個Request會對應一個Result.

4.當然這些是Android原生的HAL3定義,接口放在那,各個芯片廠商實現當然不一樣,其中接觸的便是高通的mm-camera,camx,聯發科的mtkcam hal3,后面繼續整理實現過程.

HAL3接口定義在
http://androidxref.com/9.0.0_r3/xref/hardware/interfaces/camera/

五. 下面需要梳理的重點-正在進行

  1. Camera App和Framework代碼暫且梳理到這里,下面HAL層將分為Qcom和Mtk分別進行代碼梳理與架構總結
  2. Android相機中事件驅動(request)與數據(Buffer)傳遞,Buffer管理等
  3. 相機底層相關模塊,如ISP,IPE,JPEG等
  4. Android Camera開發的debug方法

原文鏈接:https://blog.csdn.net/TaylorPotter/article/details/105387109

至此,本篇已結束。轉載網絡的文章,小編覺得很優秀,歡迎點擊閱讀原文,支持原創作者,如有侵權,懇請聯系小編刪除,歡迎您的建議與指正。同時期待您的關注,感謝您的閱讀,謝謝!


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM