若該文為原創文章,未經允許不得轉載
原博主博客地址:https://blog.csdn.net/qq21497936
原博主博客導航:https://blog.csdn.net/qq21497936/article/details/102478062
本文章博客地址:https://blog.csdn.net/qq21497936/article/details/108639103
各位讀者,知識無窮而人力有窮,要么改需求,要么找專業人士,要么自己研究
上一篇:《FFmpeg開發筆記(四):ffmpeg解碼的基本流程詳解》
下一篇:敬請期待
ffmpeg涉及了很多,循序漸進,本篇描述基本的解碼流程,主要ffmpeg解碼流程在ffmpeg3及以后新增的2個api進行了補充,更為詳細可以參考《FFmpeg開發筆記(四):ffmpeg解碼的基本流程詳解》
ffmpeg的解碼和編碼都遵循其基本的執行流程。
新api解碼基本本流程如下:
以下是老版本api解碼流程:
使用ffmpeg對應的庫,都需要進行注冊,可以注冊子項也可以注冊全部。
打開文件,根據文件名信息獲取對應的ffmpeg全局上下文。
一定要探測流信息,拿到流編碼的編碼格式,不探測流信息則其流編碼器拿到的編碼類型可能為空,后續進行數據轉換的時候就無法知曉原始格式,導致錯誤。
依據流的格式查找解碼器,軟解碼還是硬解碼是在此處決定的,但是特別注意是否支持硬件,需要自己查找本地的硬件解碼器對應的標識,並查詢其是否支持。普遍操作是,枚舉支持文件后綴解碼的所有解碼器進行查找,查找到了就是可以硬解了(此處,不做過多的討論,對應硬解碼后續會有文章進行進一步研究)。
(注意:解碼時查找解碼器,編碼時查找編碼器,兩者函數不同,不要弄錯了,否則后續能打開但是數據是錯的)
打開獲取到的解碼器。
此處特別注意,基本上解碼的數據都是yuv系列格式,但是我們顯示的數據是rgb等相關顏色空間的數據,所以此處轉換結構體就是進行轉換前到轉換后的描述,給后續轉換函數提供轉碼依據,是很關鍵並且非常常用的結構體。
申請一個緩存區outBuffer,fill到我們目標幀數據的data上,比如rgb數據,QAVFrame的data上存是有指定格式的數據,且存儲有規則,而fill到outBuffer(自己申請的目標格式一幀緩存區),則是我們需要的數據格式存儲順序。
舉個例子,解碼轉換后的數據為rgb888,實際直接用data數據是錯誤的,但是用outBuffer就是對的,所以此處應該是ffmpeg的fill函數做了一些轉換。
進入循環解碼:
拿取封裝的一個packet,判斷packet數據的類型進行送往解碼器解碼。
一個包可能存在多組數據,老的api獲取的是第一個,新的api分開后,可以循環獲取,直至獲取不到跳轉“步驟十二”。
拿到了原始數據自行處理。
不斷循環,直到拿取pakcet函數成功,但是無法got一幀數據,則代表文件解碼已經完成。
幀率需要自己控制循環,此處只是循環拿取,可加延遲等。
此處要單獨列出是因為,其實很多網上和開發者的代碼:
在進入循環解碼前進行了av_new_packet,循環中未av_free_packet,造成內存溢出;
在進入循環解碼前進行了av_new_packet,循環中進行av_free_pakcet,那么一次new對應無數次free,在編碼器上是不符合前后一一對應規范的。
查看源代碼,其實可以發現av_read_frame時,自動進行了av_new_packet(),那么其實對於packet,只需要進行一次av_packet_alloc()即可,解碼完后av_free_packet。
執行完后,返回執行“步驟八:獲取一幀packet”,一次循環結束。
全部解碼完成后,安裝申請順序,進行對應資源的釋放。
關閉之前打開的解碼/編碼器。
關閉文件上下文后,要對之前申請的變量按照申請的順序,依次釋放。
AVFormatContext描述了一個媒體文件或媒體流的構成和基本信息,位於avformat.h文件中。
AVInputFormat 是類似COM 接口的數據結構,表示輸入文件容器格式,着重於功能函數,一種文件容器格式對應一個AVInputFormat 結構,在程序運行時有多個實例,位於avoformat.h文件中。
AVDictionary 是一個字典集合,鍵值對,用於配置相關信息。
AVCodecContext是一個描述編解碼器上下文的數據結構,包含了眾多編解碼器需要的參數信息,位於avcodec.h文件中。
AVPacket是FFmpeg中很重要的一個數據結構,它保存了解復用(demuxer)之后,解碼(decode)之前的數據(仍然是壓縮后的數據)和關於這些數據的一些附加的信息,如顯示時間戳(pts),解碼時間戳(dts),數據時長(duration),所在流媒體的索引(stream_index)等等。
使用前,使用av_packet_alloc()分配,
AVCodec是存儲編解碼器信息的結構體,位於avcodec.h文件中。
AVFrame中存儲的是經過解碼后的原始數據。在解碼中,AVFrame是解碼器的輸出;在編碼中,AVFrame是編碼器的輸入。
使用前,使用av_frame_alloc()進行分配。
使用前,使用sws_getContext()進行獲取,主要用於視頻圖像的轉換。
void av_register_all(void);
初始化libavformat並注冊所有muxer、demuxer和協議。如果不調用此函數,則可以選擇想要指定注冊支持的哪種格式,通過av_register_input_format()、av_register_output_format()。
int avformat_open_input(AVFormatContext **ps,
const char *url,
AVInputFormat *fmt,
AVDictionary **options);
打開輸入流並讀取標頭。編解碼器未打開。流必須使用avformat_close_input()關閉,返回0-成功,<0-失敗錯誤碼。
- 參數一:指向用戶提供的AVFormatContext(由avformat_alloc_context分配)的指針。
- 參數二:要打開的流的url
- 參數三:fmt如果非空,則此參數強制使用特定的輸入格式。否則將自動檢測格式。
- 參數四:包含AVFormatContext和demuxer私有選項的字典。返回時,此參數將被銷毀並替換為包含找不到的選項。都有效則返回為空。
int avformat_find_stream_info(AVFormatContext *ic, AVDictionary **options);
讀取檢查媒體文件的數據包以獲取具體的流信息,如媒體存入的編碼格式。
- 參數一:媒體文件上下文。
- 參數二:字典,一些配置選項。
AVCodec *avcodec_find_decoder(enum AVCodecID id);
查找具有匹配編解碼器ID的已注冊解碼器,解碼時,已經獲取到了,注冊的解碼器可以通過枚舉查看,枚舉太多,略。
int avcodec_open2(AVCodecContext *avctx,
const AVCodec *codec,
AVDictionary **options);
初始化AVCodeContext以使用給定的AVCodec。
struct SwsContext *sws_getContext(int srcW,
int srcH,
enum AVPixelFormat srcFormat,
int dstW,
int dstH,
enum AVPixelFormat dstFormat,
int flags, SwsFilter *srcFilter,
SwsFilter *dstFilter,
const double *param);
分配並返回一個SwsContext。需要它來執行sws_scale()進行縮放/轉換操作。
int avpicture_get_size(enum AVPixelFormat pix_fmt, int width, int height);
返回存儲具有給定參數的圖像的緩存區域大小。
- 參數一:圖像的像素格式
- 參數二:圖像的像素寬度
- 參數三:圖像的像素高度
int avpicture_fill(AVPicture *picture,
const uint8_t *ptr,
enum AVPixelFormat pix_fmt,
int width,
int height);
根據指定的圖像、提供的數組設置數據指針和線條大小參數。
- 參數一:輸入AVFrame指針,強制轉換為AVPciture即可。
- 參數二:映射到的緩存區,開發者自己申請的存放圖像數據的緩存區。
- 參數三:圖像數據的編碼格式。
- 參數四:圖像像素寬度。
- 參數五:圖像像素高度。
int av_read_frame(AVFormatContext *s, AVPacket *pkt);
返回流的下一幀。此函數返回存儲在文件中的內容,不對有效的幀進行驗證。獲取存儲在文件中的幀中,並為每個調用返回一個。不會的省略有效幀之間的無效數據,以便給解碼器最大可用於解碼的信息。
返回0是成功,小於0則是錯誤,大於0則是文件末尾,所以大於等於0是返回成功。
int avcodec_decode_video2(AVCodecContext *avctx,
AVFrame *picture,
int *got_picture_ptr,
const AVPacket *avpkt);
將大小為avpkt->size from avpkt->data的視頻幀解碼為圖片。一些解碼器可以支持單個avpkg包中的多個幀,解碼器將只解碼第一幀。出錯時返回負值,否則返回字節數,如果沒有幀可以解壓縮,則為0。
- 參數一:編解碼器上下文。
- 參數二:將解碼視頻幀存儲在AVFrame中。
- 參數三:輸入緩沖區的AVPacket。
- 參數四:如果沒有幀可以解壓,那么得到的圖片是0,否則,它是非零的。
int avcodec_send_packet(AVCodecContext *avctx, const AVPacket *avpkt);
將原始分組數據發送給解碼器。
在內部,此調用將復制相關的AVCodeContext字段,這些字段可以影響每個數據包的解碼,並在實際解碼數據包時應用這些字段。(例如AVCodeContext.skip_frame,這可能會指示解碼器丟棄使用此函數發送的數據包所包含的幀。)
這個函數可以理解為ffmpeg為多線程准備的,將解碼數據幀包送入編碼器理解為一個線程,將從編碼器獲取解碼后的數據理解為一個線程。
- 參數一:編解碼器上下文
- 參數二:avpkt輸入的AVPacket。通常,這將是一個單一的視頻幀,或幾個完整的音頻幀。數據包的所有權歸調用者所有,解碼器不會寫入數據包。解碼器可以創建對分組數據的引用(如果分組沒有被引用計數,則復制它)。與舊的API不同,數據包總是被完全消耗掉,如果它包含多個幀(例如某些音頻編解碼器),則需要在發送新數據包之前多次調用avcodec_receive_frame()。它可以是NULL(或者數據設置為NULL且大小設置為0的AVPacket);在這種情況下,它被認為是一個刷新包,它發出流結束的信號。發送第一個刷新包將返回成功。后續的是不必要的,將返回AVERROR ou EOF。如果解碼器仍有幀緩沖,它將在發送刷新包后返回它們。
int avcodec_receive_frame(AVCodecContext *avctx, AVFrame *frame);
從解碼器返回解碼輸出數據。這個函數可以理解為ffmpeg為多線程准備的,將解碼數據幀包送入編碼器理解為一個線程,將從編碼器獲取解碼后的數據理解為一個線程。
- 參數一:編解碼器上下文
- 參數二:這將被設置為參考計數的視頻或音頻解碼器分配的幀(取決於解碼器類型)。請注意,函數在執行任何其他操作之前總是調用av_frame_unref(frame)。初始化libavformat並注冊所有muxer、demuxer和協議。如果不調用此函數,則可以選擇想要指定注冊支持的哪種格式,av_register_input_format()、av_register_output_format()。
int avcodec_decode_video2(AVCodecContext *avctx,
AVFrame *picture,
int *got_picture_ptr,
const AVPacket *avpkt);
將大小為avpkt->size from avpkt->data的視頻幀解碼為圖片。一些解碼器可以支持單個avpkg包中的多個幀,解碼器將只解碼第一幀。出錯時返回負值,否則返回字節數,如果沒有幀可以解壓縮,則為0。
- 參數一:編解碼器上下文。
- 參數二:將解碼視頻幀存儲在AVFrame中。
- 參數三:輸入緩沖區的AVPacket。
- 參數四:如果沒有幀可以解壓,那么得到的圖片是0,否則,它是非零的。
int sws_scale(struct SwsContext *c,
const uint8_t *const srcSlice[],
const int srcStride[],
int srcSliceY,
int srcSliceH,
uint8_t *const dst[],
const int dstStride[]);
在srcSlice中縮放圖像切片並將結果縮放在dst中切片圖像。切片是連續的序列圖像中的行。
- 參數一:以前用創建的縮放上下文*sws_getContext()。
- 參數二:包含指向源片段,就是AVFrame的data。
- 參數三:包含每個平面的跨步的數組,其實就是AVFrame的linesize。
- 參數四:切片在源圖像中的位置,從開始計數0對應切片第一行的圖像,所以直接填0即可。
- 參數五:源切片的像素高度。
- 參數六:目標數據地址映像,是目標AVFrame的data。
- 參數七:目標每個平面的跨步的數組,就是linesize。
void av_free_packet(AVPacket *pkt);
釋放一個包。
int avcodec_close(AVCodecContext *avctx);
關閉給定的avcodeContext並釋放與之關聯的所有數據(但不是AVCodecContext本身)。
void avformat_close_input(AVFormatContext **s);
關閉打開的輸入AVFormatContext。釋放它和它的所有內容並將*s設置為空。
void FFmpegManager::testDecodeNewApi()
{
int frameIndex = 0;
// QString fileName = "test/1.avi";
QString fileName = "test/1.mp4";
// ffmpeg相關變量預先定義與分配
AVFormatContext *pAVFormatContext = 0; // ffmpeg的全局上下文,所有ffmpeg操作都需要
// AVInputFormat *pAVInputFormat = 0; // ffmpeg的輸入格式結構體
AVDictionary *pAVDictionary = 0; // ffmpeg的字典option,各種參數給格式編解碼配置參數的
AVCodecContext *pAVCodecContext = 0; // ffmpeg編碼上下文
AVCodec *pAVCodec = 0; // ffmpeg編碼器
AVPacket *pAVPacket = 0; // ffmpag單幀數據包
AVFrame *pAVFrame = 0; // ffmpeg單幀緩存
AVFrame *pAVFrameRGB32 = 0; // ffmpeg單幀緩存轉換顏色空間后的緩存
struct SwsContext *pSwsContext = 0; // ffmpag編碼數據格式轉換
int ret = 0; // 函數執行結果
int videoIndex = -1; // 音頻流所在的序號
int gotPicture = 0; // 解碼時數據是否解碼成功
int numBytes = 0; // 解碼后的數據長度
uchar *outBuffer = 0; // 解碼后的數據存放緩存區
pAVFormatContext = avformat_alloc_context(); // 分配
pAVPacket = av_packet_alloc(); // 分配
pAVFrame = av_frame_alloc(); // 分配
pAVFrameRGB32 = av_frame_alloc(); // 分配
if(!pAVFormatContext || !pAVPacket || !pAVFrame || !pAVFrameRGB32)
{
LOG << "Failed to alloc";
goto END;
}
// 步驟一:注冊所有容器和編解碼器(也可以只注冊一類,如注冊容器、注冊編碼器等)
av_register_all();
// 步驟二:打開文件(ffmpeg成功則返回0)
LOG << "文件:" << fileName << ",是否存在:" << QFile::exists(fileName);
// ret = avformat_open_input(&pAVFormatContext, fileName.toUtf8().data(), pAVInputFormat, 0);
ret = avformat_open_input(&pAVFormatContext, fileName.toUtf8().data(), 0, 0);
if(ret)
{
LOG << "Failed";
goto END;
}
// 步驟三:探測流媒體信息
// Assertion desc failed at libswscale/swscale_internal.h:668
// 入坑:因為pix_fmt為空,需要對編碼器上下文進一步探測
ret = avformat_find_stream_info(pAVFormatContext, 0);
if(ret < 0)
{
LOG << "Failed to avformat_find_stream_info(pAVCodecContext, 0)";
goto END;
}
// 打印文件信息
LOG << "視頻文件包含流信息的數量:" << pAVFormatContext->nb_streams;
// 在Qt中av_dump_format不會進行命令行輸出
// av_dump_format(pAVFormatContext, 1, fileName.toUtf8().data(), 0);
// 步驟三:提取流信息,提取視頻信息
for(int index = 0; index < pAVFormatContext->nb_streams; index++)
{
pAVCodecContext = pAVFormatContext->streams[index]->codec;
switch (pAVCodecContext->codec_type)
{
case AVMEDIA_TYPE_UNKNOWN:
LOG << "流序號:" << index << "類型為:" << "AVMEDIA_TYPE_UNKNOWN";
break;
case AVMEDIA_TYPE_VIDEO:
LOG << "流序號:" << index << "類型為:" << "AVMEDIA_TYPE_VIDEO";
videoIndex = index;
LOG;
break;
case AVMEDIA_TYPE_AUDIO:
LOG << "流序號:" << index << "類型為:" << "AVMEDIA_TYPE_AUDIO";
break;
case AVMEDIA_TYPE_DATA:
LOG << "流序號:" << index << "類型為:" << "AVMEDIA_TYPE_DATA";
break;
case AVMEDIA_TYPE_SUBTITLE:
LOG << "流序號:" << index << "類型為:" << "AVMEDIA_TYPE_SUBTITLE";
break;
case AVMEDIA_TYPE_ATTACHMENT:
LOG << "流序號:" << index << "類型為:" << "AVMEDIA_TYPE_ATTACHMENT";
break;
case AVMEDIA_TYPE_NB:
LOG << "流序號:" << index << "類型為:" << "AVMEDIA_TYPE_NB";
break;
default:
break;
}
// 已經找打視頻品流
if(videoIndex != -1)
{
break;
}
}
if(videoIndex == -1 || !pAVCodecContext)
{
LOG << "Failed to find video stream";
goto END;
}
// 步驟四:對找到的視頻流尋解碼器
pAVCodec = avcodec_find_decoder(pAVCodecContext->codec_id);
if(!pAVCodec)
{
LOG << "Fialed to avcodec_find_decoder(pAVCodecContext->codec_id):"
<< pAVCodecContext->codec_id;
goto END;
}
// 步驟五:打開解碼器
ret = avcodec_open2(pAVCodecContext, pAVCodec, NULL);
if(ret)
{
LOG << "Failed to avcodec_open2(pAVCodecContext, pAVCodec, pAVDictionary)";
goto END;
}
LOG << pAVCodecContext->width << "x" << pAVCodecContext->height;
// 步驟六:對拿到的原始數據格式進行縮放轉換為指定的格式高寬大小
// Assertion desc failed at libswscale/swscale_internal.h:668
// 入坑:因為pix_fmt為空,需要對編碼器上下文進一步探測
pSwsContext = sws_getContext(pAVCodecContext->width,
pAVCodecContext->height,
pAVCodecContext->pix_fmt,
pAVCodecContext->width,
pAVCodecContext->height,
AV_PIX_FMT_RGBA,
SWS_FAST_BILINEAR,
0,
0,
0);
numBytes = avpicture_get_size(AV_PIX_FMT_RGBA,
pAVCodecContext->width,
pAVCodecContext->height);
outBuffer = (uchar *)av_malloc(numBytes);
// pAVFrame32的data指針指向了outBuffer
avpicture_fill((AVPicture *)pAVFrameRGB32,
outBuffer,
AV_PIX_FMT_RGBA,
pAVCodecContext->width,
pAVCodecContext->height);
// 此處無需分配
// av_read_frame時他會分配,av_new_packet多此一舉,正好解釋了一次new和多次free的問題
// av_new_packet(pAVPacket, pAVCodecContext->width * pAVCodecContext->height);
// 步驟七:讀取一幀數據的數據包
while(av_read_frame(pAVFormatContext, pAVPacket) >= 0)
{
if(pAVPacket->stream_index == videoIndex)
{
#if 0
// 步驟八:對讀取的數據包進行解碼
ret = avcodec_decode_video2(pAVCodecContext, pAVFrame, &gotPicture, pAVPacket);
if(ret < 0)
{
LOG << "Failed to avcodec_decode_video2(pAVFormatContext, pAVFrame, &gotPicture, pAVPacket)";
break;
}
// 等於0代表拿到了解碼的幀數據
if(!gotPicture)
{
LOG << "no data";
break;
}else{
sws_scale(pSwsContext,
(const uint8_t * const *)pAVFrame->data,
pAVFrame->linesize,
0,
pAVCodecContext->height,
pAVFrameRGB32->data,
pAVFrameRGB32->linesize);
QImage imageTemp((uchar *)outBuffer,
pAVCodecContext->width,
pAVCodecContext->height,
QImage::Format_RGBA8888);
QImage image = imageTemp.copy();
LOG << image.save(QString("%1.jpg").arg(frameIndex++));
}
av_free_packet(pAVPacket);
#else
// 步驟八:發送數據給編碼器
ret = avcodec_send_packet(pAVCodecContext, pAVPacket);
if(ret)
{
LOG << "Failed to avcodec_send_packet(pAVCodecContext, pAVPacket) ,ret =" << ret;
break;
}
// 步驟九:循環沖編碼器獲取解碼后的數據
while(!avcodec_receive_frame(pAVCodecContext, pAVFrame))
{
sws_scale(pSwsContext,
(const uint8_t * const *)pAVFrame->data,
pAVFrame->linesize,
0,
pAVCodecContext->height,
pAVFrameRGB32->data,
pAVFrameRGB32->linesize);
QImage imageTemp((uchar *)outBuffer,
pAVCodecContext->width,
pAVCodecContext->height,
QImage::Format_RGBA8888);
QImage image = imageTemp.copy();
LOG << image.save(QString("%1.jpg").arg(frameIndex++));
}
av_free_packet(pAVPacket);
#endif
}
QThread::msleep(1);
}
END:
LOG << "釋放回收資源";
if(outBuffer)
{
av_free(outBuffer);
outBuffer = 0;
}
if(pSwsContext)
{
sws_freeContext(pSwsContext);
pSwsContext = 0;
LOG << "sws_freeContext(pSwsContext)";
}
if(pAVFrameRGB32)
{
av_frame_free(&pAVFrameRGB32);
pAVFrame = 0;
LOG << "av_frame_free(pAVFrameRGB888)";
}
if(pAVFrame)
{
av_frame_free(&pAVFrame);
pAVFrame = 0;
LOG << "av_frame_free(pAVFrame)";
}
if(pAVPacket)
{
av_free_packet(pAVPacket);
pAVPacket = 0;
LOG << "av_free_packet(pAVPacket)";
}
if(pAVCodecContext)
{
avcodec_close(pAVCodecContext);
pAVCodecContext = 0;
LOG << "avcodec_close(pAVCodecContext);";
}
if(pAVFormatContext)
{
avformat_close_input(&pAVFormatContext);
avformat_free_context(pAVFormatContext);
pAVFormatContext = 0;
LOG << "avformat_free_context(pAVFormatContext)";
}
}
對應工程模板v1.1.1:新增ffmpeg3的api解碼demo。
上一篇:《FFmpeg開發筆記(四):ffmpeg解碼的基本流程詳解》
下一篇:敬請期待