Android系統Audio框架介紹【轉】


本文轉載自:https://blog.csdn.net/yangwen123/article/details/39502689 

音頻基礎知識
聲音有哪些重要屬性呢?

響度(Loudness)
響度就是人類可以感知到的各種聲音的大小,也就是音量。響度與聲波的振幅有直接關系。

音調(Pitch)
音調與聲音的頻率有關系,當聲音的頻率越大時,人耳所感知到的音調就越高,否則就越低。

音色(Quality)
同一種樂器,使用不同的材質來制作,所表現出來的音色效果是不一樣的,這是由物體本身的結構特性所決定的。

如何將各種媒體源數字化呢?

 

音頻采樣


將聲波波形信號通過ADC轉換成計算機支持的二進制的過程叫做音頻采樣(Audio Sampling)。采樣(Sampling)的核心是把連續的模擬信號轉換成離散的數字信號。

樣本(Sample)
這是我們進行采樣的初始資料,比如一段連續的聲音波形。

采樣器(Sampler)
采樣器是將樣本轉換成終態信號的關鍵。它可以是一個子系統,也可以指一個操作過程,甚至是一個算法,取決於不同的信號處理場景。理想的采樣器要求盡可能不產生信號失真。

量化(Quantization)
采樣后的值還需要通過量化,也就是將連續值近似為某個范圍內有限多個離散值的處理過程。因為原始數據是模擬的連續信號,而數字信號則是離散的,它的表達范圍是有限的,所以量化是必不可少的一個步驟。

編碼(Coding)
計算機的世界里,所有數值都是用二進制表示的,因而我們還需要把量化值進行二進制編碼。這一步通常與量化同時進行。

 

奈奎斯特采樣理論

“當對被采樣的模擬信號進行還原時,其最高頻率只有采樣頻率的一半”。

換句話說,如果我們要完整重構原始的模擬信號,則采樣頻率就必須是它的兩倍以上。比如人的聲音范圍是2~ 20kHZ,那么選擇的采樣頻率就應該在40kHZ左右,數值太小則聲音將產生失真現象,而數值太大也無法明顯提升人耳所能感知的音質。

錄制過程
音頻采集設備(比如Microphone)捕獲聲音信息。
模擬信號通過模數轉換器(ADC)處理成計算機能接受的二進制數據。
根據需求進行必要的渲染處理,比如音效調整、過濾等等。
處理后的音頻數據理論上已經可以存儲到計算機設備中了,比如硬盤、USB設備等等。不過由於這時的音頻數據體積相對龐大,不利於保存和傳輸,通常還會對其進行壓縮處理。比如我們常見的mp3音樂,實際上就是對原始數據采用相應的壓縮算法后得到的。壓縮過程根據采樣率、位深等因素的不同,最終得到的音頻文件可能會有一定程度的失真,另外,音視頻的編解碼既可以由純軟件完成,也同樣可以借助於專門的硬件芯片來完成。
回放過程
從存儲設備中取出相關文件,並根據錄制過程采用的編碼方式進行相應的解碼。
音頻系統為這一播放實例選定最終匹配的音頻回放設備。
解碼后的數據經過音頻系統設計的路徑傳輸。
音頻數據信號通過數模轉換器(DAC)變換成模擬信號。
模擬信號經過回放設備,還原出原始聲音。
Audio框架


APP
廠商根據特定需求自己寫的一個音樂播放器軟件等等。

Framework
Android也提供了另兩個相似功能的類,即AudioTrack和AudioRecorder,MediaPlayerService內部的實現就是通過它們來完成的,只不過MediaPlayer/MediaRecorder提供了更強大的控制功能,相比前者也更易於使用。除此以外,Android系統還為我們控制音頻系統提供了AudioManager、AudioService及AudioSystem類。這些都是framework為便利上層應用開發所設計的。

Libraries
framework只是向應用程序提供訪問Android庫的橋梁,具體功能實現放在庫中完成。比如上面的AudioTrack、AudioRecorder、MediaPlayer和MediaRecorder等等在庫中都能找到相對應的類。

1、frameworks/av/media/libmedia【libmedia.so】

2、frameworks/av/services/audioflinger【libaudioflinger.so】

3、frameworks/av/media/libmediaplayerservice【libmediaplayerservice.so】

    4.   HAL

從設計上來看,硬件抽象層是AudioFlinger直接訪問的對象。這說明了兩個問題,一方面AudioFlinger並不直接調用底層的驅動程序;另一方面,AudioFlinger上層模塊只需要與它進行交互就可以實現音頻相關的功能了。因而我們可以認為AudioFlinger是Android音頻系統中真正的“隔離板”,無論下面如何變化,上層的實現都可以保持兼容。

音頻方面的硬件抽象層主要分為兩部分,即AudioFlinger和AudioPolicyService。實際上后者並不是一個真實的設備,只是采用虛擬設備的方式來讓廠商可以方便地定制出自己的策略。抽象層的任務是將AudioFlinger/AudioPolicyService真正地與硬件設備關聯起來,但又必須提供靈活的結構來應對變化——特別是對於Android這個更新相當頻繁的系統。比如以前Android系統中的Audio系統依賴於ALSA-lib,但后期就變為了tinyalsa,這樣的轉變不應該對上層造成破壞。因而Audio HAL提供了統一的接口來定義它與AudioFlinger/AudioPolicyService之間的通信方式,這就是audio_hw_device、audio_stream_in及audio_stream_out等等存在的目的,這些Struct數據類型內部大多只是函數指針的定義,是一些“殼”。當AudioFlinger/AudioPolicyService初始化時,它們會去尋找系統中最匹配的實現(這些實現駐留在以audio.primary.*,audio.a2dp.*為名的各種庫中)來填充這些“殼”。根據產品的不同,音頻設備存在很大差異,在Android的音頻架構中,這些問題都是由HAL層的audio.primary等等庫來解決的,而不需要大規模地修改上層實現。換句話說,廠商在定制時的重點就是如何提供這部分庫的高效實現了。

 

 

AudioRcorder和AudioTrack是Audio系統對外提供API類,AudioRcorder主要用於完成音頻數據的采集,而AudioTrack則是負責音頻數據的輸出。AudioFlinger管理着系統中的輸入輸出音頻流,並承擔着音頻數據的混合,通過讀寫Audio硬件實現音頻數據的輸入輸出功能;AudioPolicyService是Audio系統的策略控制中心,掌管系統中聲音設備的選擇和切換、音量控制等。

 

Audio 系統代碼:

(1)Audio 的Java 部分

frameworks/base/media/java/android/media

與Audio 相關的Java包是android.media,主要包含AudioManager和Audio 系統的幾個類。

(2)Audio 的JNI 部分

frameworks/base/core/jni

生成庫libandroid_runtime.so,Audio 的JNI是其中的一個部分。

(3)Audio 的框架部分

frameworks/base/include/media/

frameworks/base/media/libmedia/

這部分內容被編譯成庫libmedia.so,實現Audio系統的核心框架,同時提供了IAudioFlinger 類接口。在這個類中,可以獲得IAudioTrack 和IAudioRecorder 兩個接口,分別用於聲音的播放和錄制。AudioTrack 和AudioRecorder 分別調用IAudioTrack 和IAudioRecorder 來實現。IAudioFlinger.h、IAudioTrack.h 和IAudioRecorder.h 這三個接口通過下層來實現。AudioSystem.h、AudioTrack.h 和AudioRecorder.h 是對上層提供的接口,它們既供本地程序調用,也可以通過JNI 向Java 層提供接口。從功能上看,AudioSystem 負責的是Audio 系統的綜合管理功能,而AudioTrack 和AudioRecorder 分別負責音頻數據的輸出和輸入,即播放和錄制。另外一個接口是IAudioFlingerClient,它作為向IAudioFlinger中注冊的監聽器,相當於使用回調函數獲取IAudioFlinger運行時信息。

(4)Audio Flinger

frameworks/base/libs/audioflinger

這部分內容被編譯成庫libaudioflinger.so,它是Audio系統的本地服務部分。

(5)Audio 的硬件抽象層接口

hardware/libhardware_legacy/include/hardware/

1、Audio使用JNI和Java對上層提供接口,JNI部分通過調用libmedia庫提供的接口來實現。

2、 Audio 本地框架類是libmedia.so的一個部分,這些Audio框架類對上層提供接口,由下層的本地代碼去實現。

3、AudioFlinger繼承libmeida中的接口,提供實現庫libaudiofilnger.so。這部分內容沒有自己的對外頭文件,上層調用的只是libmedia本部分的接口,但實際調用的內容是libaudioflinger.so。

4、Audio的硬件抽象層提供到硬件的接口,供AudioFlinger調用。Audio的硬件抽象層實際上是各個平台開發過程中需要主要關注和獨立完成的部分。

在Android的Audio系統中,無論上層還是下層,都使用一個管理類和輸出輸入兩個類來表示整個Audio系統,輸出輸入兩個類負責數據通道。在各個層次之間具有對應關系:

 

在libhardware_legacy中定義的音頻相關的硬件抽象層數據結構legacy_audio_device、legacy_stream_out、legacy_stream_in如下:

音頻設備描述符:

struct legacy_audio_device {
struct audio_hw_device device;
struct AudioHardwareInterface *hwif;
};
音頻輸出描述符:

struct legacy_stream_out {
struct audio_stream_out stream;
AudioStreamOut *legacy_out;
};
音頻輸入描述符:

struct legacy_stream_in {
struct audio_stream_in stream;
AudioStreamIn *legacy_in;
};

 

 


通過上表比較可以看出,audio_hw_device和AudioHardwareInterface、audio_stream_out和AudioStreamOut、audio_stream_in和AudioStreamIn定義的接口基本一致,這是為了兼容Android先前版本。

 

AudioHardwareInterface.cpp負責實現基礎類和管理,而AudioHardwareGeneric.cpp、AudioHardwareStub.cpp、AudioDumpInterface.cpp和A2dpAudioInterface.cpp各自代表一種Auido硬件抽象層的實現。

AudioHardwareGeneric.cpp:實現基於特定驅動的通用Audio硬件抽象層,這是一個真正能夠使用的Audio硬件抽象層,但是它需要Android的一種特殊的聲音驅動程序的支持。
AudioHardwareStub.cpp:實現Audio硬件抽象層的一個樁,這個實現不操作實際的硬件和文件,它所進行的是空操作。
 AudioDumpInterface.cpp:實現輸出到文件的Audio硬件抽象層,支持Audio的輸出功能,不支持輸入功能。
A2dpAudioInterface.cpp:實現藍牙音頻的Audio硬件抽象層。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM