轉自:http://blog.csdn.net/fwqlzz/article/details/51126653
版權聲明:本文為博主原創文章,未經博主允許不得轉載。 USB video class(又稱為USB video device class or UVC)就是USB device class視頻產品在不需要安裝任何的驅動程序下即插即用,包括攝像頭、數字攝影機、模擬視頻轉換器、電視卡及靜態視頻相機。 最新的UVC版本為UVC 1.5,由USB-IF(USB Implementers Forum)定義包括基本協議及負載格式 [1] [2]. 這個鏈接是Linux中對UVC支持的相關描述。http://www.ideasonboard.org/uvc/ V4L2: Video4Linux或V4L是一個視頻截取及設備輸出API,以及Linux的驅動程序框架,支持很多USB攝像頭、電視調諧卡以及其他設備。Video4Linux與Linux內核緊密集成,Video4Linux取名的靈感來自Video for Windows(有時候會縮寫為“V4W”),但兩者在技術上並沒有任何關系[1][2]。 從兩個的介紹也能看出來這兩者之間的關系。 簡單的講V4L2就是用來管理UVC設備的並且能夠提供視頻相關的一些API。那么這些API怎么使用或者能被誰使用呢。在Linux系統上有很多的開源軟件能夠支持V4L2。常見的又FFmpeg、OpenCV、Skype、Mplayer等等。 這樣一個UVC能夠進行視頻顯示的話應該滿足三個條件: 1 UVC的camera硬件支持 2 UVC驅動支持,包括USB設備驅動以及v4l2的支持 3 上層的應用程序支持 linux UVC驅動是為了全面的支持UVC設備。它包括V4L2內核驅動程序和用戶空間工具補丁。這個視頻設備或者USB視頻類的USB設備類的定義定義了在USB上的視頻流的功能。UVC類型的外設只需要一個通用的驅動支持就能夠正常工作,就像USB 大容量存儲設備一樣。 UVC的linux kernel驅動程序和支持的硬件設備都在這里有相關的描述:http://www.ideasonboard.org/uvc/。 判斷一個攝像頭是否屬於UVC規范可以使用如下方法: 1 使用lsusb命令或其他硬件信息查看工具,找出攝像頭的設備號(Vendor ID)和產品號(Product ID)。 2 查找是否有視頻類借口信息 lsusb -d VID:PID -v | grep "14 Video" 如果兼容UVC,則會輸出類似信息 bFunctionClass 14 Video bInterfaceClass 14 Video bInterfaceClass 14 Video bInterfaceClass 14 Video 如果沒有以上信息,則是non-UVC設備。 1. Kernel配置: Device Drivers ---> <*> Multimediasupport ---> <M> Video For Linux Device Drivers ---> <*> Multimediasupport ---> [*] Video capture adapters ---> [*] V4L USB devices ---> <M> USB Video Class (UVC) --- V4L USB devices :這里還有很多特定廠商的driver.可供選擇。 分析: "USB Video Class(UVC)":對應的driver是:uvcvideo.ko "Video For Linux": 對應driver是:videodev.ko 安裝driver順序如下: insmod v4l1_compat.ko insmod videodev.ko insmod uvcvideo.ko driver會創建一個或多個主設備號為81,次設備號:0-255的設備。 除了camera會創建為:/dev/videoX 之外,還有VBI設備-/dev/vbiX.Radio設備--/dev/radioX. 2. V4L2一些概念: 2.1:Video Input and Output: video input and output是指device物理連接。 只有video 和VBI capture擁有input. Radio設備則沒有video input 和output. 2.2: Video Standards: Video Device支持一個或多個Video 標准。 3. 使用V4L2編程: 使用V4L2(Video for Linux 2) API的過程大致如下: Opening the device Changing device properties, selecting a video and audio input,video standard, picture brightness a. o. Negotiating a data format Negotiating an input/output method The actual input/output loop Closing the device 3.1:打開設備: fd = open("/dev/video0", O_RDWR, 0); //以阻塞模式打開設想頭 3.2: 查詢設備能力:Querying Capabilities: 因為V4L2可以對多種設備編程,所以並不是所有API可以對所有設備編程,哪怕是同類型的設備,使用ioctl--VIDIOC_QUERYCAP去詢問支持什么功能。 struct v4l2_capability cap; rel = ioctl(fdUsbCam, VIDIOC_QUERYCAP,&cap); if(rel != 0) { perror("ioctl VIDIOC_QUERYCAP"); return -1; } 結構體如下: struct v4l2_capability { __u8 driver[16]; __u8 card[32]; __u8 bus_info[32]; __u32 version; __u32 capabilities; __u32 reserved[4]; }; 這里面最重要的是:capabilities: 頭文件linux/videodev2.h和kernel頭文件linux/videodev2.h中都有描述: #define V4L2_CAP_VIDEO_CAPTURE 0x00000001 #define V4L2_CAP_VIDEO_OUTPUT 0x00000002 #define V4L2_CAP_VIDEO_OVERLAY 0x00000004 #define V4L2_CAP_VBI_CAPTURE 0x00000010 #define V4L2_CAP_VBI_OUTPUT 0x00000020 #define V4L2_CAP_SLICED_VBI_CAPTURE 0x00000040 #define V4L2_CAP_SLICED_VBI_OUTPUT 0x00000080 #define V4L2_CAP_RDS_CAPTURE 0x00000100 #define V4L2_CAP_VIDEO_OUTPUT_OVERLAY 0x00000200 #define V4L2_CAP_HW_FREQ_SEEK 0x00000400 #define V4L2_CAP_RDS_OUTPUT 0x00000800 #define V4L2_CAP_TUNER 0x00010000 #define V4L2_CAP_AUDIO 0x00020000 #define V4L2_CAP_RADIO 0x00040000 #define V4L2_CAP_MODULATOR 0x00080000 #define V4L2_CAP_READWRITE 0x01000000 #define V4L2_CAP_ASYNCIO 0x02000000 #define V4L2_CAP_STREAMING 0x04000000 這里要說到VBI, Vertical Blanking Interval的縮寫 。電視信號包括一部分非可視信號,它不傳送可視信息,因此被稱為ⅦI(垂直消隱期間)。VBI可以用於傳送其他信息,通常是一種專用字幕信號 這和Blog 重顯率中所說暗合。 在這里, V4L2_CAP_VIDEO_CAPTURE 說明設備是個圖像采集設備,V4L2_CAP_STREAMING 說明是個Streaming設備。 通常,攝像頭都支持以上兩個能力。 3.3:查詢當前捕獲格式: memset(&fmt, 0, sizeof(structv4l2_format)); fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if (ioctl(fdUsbCam, VIDIOC_G_FMT, &fmt)< 0) { printf("get format failed\n"); return -1; } 注意,此處,fmt是個in/out參數。 參見Kernel代碼v4l2_ioctl.c中。此ioctl,它會首先判斷 fmt.type. type類型和含義如下: V4L2_BUF_TYPE_VIDEO_CAPTURE :vid-cap V4L2_BUF_TYPE_VIDEO_OVERLAY :vid-overlay V4L2_BUF_TYPE_VIDEO_OUTPUT :vid-out V4L2_BUF_TYPE_VBI_CAPTURE :vbi-cap V4L2_BUF_TYPE_VBI_OUTPUT : vbi-out V4L2_BUF_TYPE_SLICED_VBI_CAPTURE :sliced-vbi-cap V4L2_BUF_TYPE_SLICED_VBI_OUTPUT :sliced-vbi-out V4L2_BUF_TYPE_VIDEO_OUTPUT_OVERLAY : vid-out-overlay 咱們是使用Video Cam的。所以用V4L2_BUF_TYPE_VIDEO_CAPTURE struct v4l2_format { enum v4l2_buf_type type; union { struct v4l2_pix_format pix; struct v4l2_window win; struct v4l2_vbi_format vbi; struct v4l2_sliced_vbi_format sliced; __u8 raw_data[200]; } fmt; }; 我們得到的信息在v4l2_pix_format中。 你可以看到,寬,高,像素格式。 其中像素格式包括: #define V4L2_PIX_FMT_RGB332 v4l2_fourcc('R','G','B','1') #define V4L2_PIX_FMT_RGB555 v4l2_fourcc('R','G','B','O') #define V4L2_PIX_FMT_RGB565 v4l2_fourcc('R','G','B','P') #define V4L2_PIX_FMT_RGB555X v4l2_fourcc('R','G','B','Q') #define V4L2_PIX_FMT_RGB565X v4l2_fourcc('R','G','B','R') #define V4L2_PIX_FMT_BGR24 v4l2_fourcc('B','G','R','3') #define V4L2_PIX_FMT_RGB24 v4l2_fourcc('R','G','B','3') #define V4L2_PIX_FMT_BGR32 v4l2_fourcc('B','G','R','4') #define V4L2_PIX_FMT_RGB32 v4l2_fourcc('R','G','B','4') #define V4L2_PIX_FMT_GREY v4l2_fourcc('G','R','E','Y') #define V4L2_PIX_FMT_YVU410 v4l2_fourcc('Y','V','U','9') #define V4L2_PIX_FMT_YVU420 v4l2_fourcc('Y','V','1','2') #define V4L2_PIX_FMT_YUYV v4l2_fourcc('Y','U','Y','V') #define V4L2_PIX_FMT_UYVY v4l2_fourcc('U','Y','V','Y') #define V4L2_PIX_FMT_YUV422P v4l2_fourcc('4','2','2','P') #define V4L2_PIX_FMT_YUV411P v4l2_fourcc('4','1','1','P') #define V4L2_PIX_FMT_Y41P v4l2_fourcc('Y','4','1','P') #define V4L2_PIX_FMT_NV12 v4l2_fourcc('N','V','1','2') #define V4L2_PIX_FMT_NV21 v4l2_fourcc('N','V','2','1') #define V4L2_PIX_FMT_YUV410 v4l2_fourcc('Y','U','V','9') #define V4L2_PIX_FMT_YUV420 v4l2_fourcc('Y','U','1','2') #define V4L2_PIX_FMT_YYUV v4l2_fourcc('Y','Y','U','V') #define V4L2_PIX_FMT_HI240 v4l2_fourcc('H','I','2','4') #define V4L2_PIX_FMT_HM12 v4l2_fourcc('H','M','1','2') #define V4L2_PIX_FMT_SBGGR8 v4l2_fourcc('B','A','8','1') #define V4L2_PIX_FMT_MJPEG v4l2_fourcc('M','J','P','G') #define V4L2_PIX_FMT_JPEG v4l2_fourcc('J','P','E','G') #define V4L2_PIX_FMT_DV v4l2_fourcc('d','v','s','d') #define V4L2_PIX_FMT_MPEG v4l2_fourcc('M','P','E','G') #define V4L2_PIX_FMT_WNVA v4l2_fourcc('W','N','V','A') #define V4L2_PIX_FMT_SN9C10X v4l2_fourcc('S','9','1','0') #define V4L2_PIX_FMT_PWC1 v4l2_fourcc('P','W','C','1') #define V4L2_PIX_FMT_PWC2 v4l2_fourcc('P','W','C','2') #define V4L2_PIX_FMT_ET61X251 v4l2_fourcc('E','6','2','5') fxxk,真TNND多。 請注意,此時取到的寬,高,像素格式均正確。但不知為何,bytesperline卻為0。 3.4:設置當前捕獲格式 fmt.fmt.pix.width = 640; fmt.fmt.pix.height = 480; fmt.fmt.pix.pixelformat=V4L2_PIX_FMT_YUYV; rel = ioctl(fdUsbCam, VIDIOC_S_FMT, &fmt); if (rel < 0) { printf("\nSet format failed\n"); return -1; } 此時,再取當前捕獲格式,則一切正常。包括 bytesperline 3.5:讀取Stream 設置。 struct v4l2_streamparm *setfps; setfps=(struct v4l2_streamparm *) calloc(1, sizeof(structv4l2_streamparm)); memset(setfps, 0, sizeof(struct v4l2_streamparm)); setfps->type = V4L2_BUF_TYPE_VIDEO_CAPTURE; rel = ioctl(fdUsbCam,VIDIOC_G_PARM, setfps); if(rel == 0) { printf("\n Frame rate: %u/%u\n", setfps->parm.capture.timeperframe.denominator, setfps->parm.capture.timeperframe.numerator ); } else { perror("Unable to read out current framerate"); return -1; } 注意: ioctl(fdUsbCam, VIDIOC_G_PARM,setfps); 參數3也是i/o 參數。必須要首先其type. struct v4l2_streamparm { enum v4l2_buf_type type; union { struct v4l2_captureparm capture; struct v4l2_outputparm output; __u8 raw_data[200]; } parm; }; type字段描述的是在涉及的操作的類型。對於視頻捕獲設備,應該為V4L2_BUF_TYPE_VIDEO_CAPTURE。對於輸出設備應該為V4L2_BUF_TYPE_VIDEO_OUTPUT。它的值也可以是V4L2_BUF_TYPE_PRIVATE,在這種情況下,raw_data字段用來傳遞一些私有的,不可移植的,甚至是不鼓勵的數據給內核。 enum v4l2_buf_type { V4L2_BUF_TYPE_VIDEO_CAPTURE = 1, V4L2_BUF_TYPE_VIDEO_OUTPUT = 2, V4L2_BUF_TYPE_VIDEO_OVERLAY = 3, V4L2_BUF_TYPE_VBI_CAPTURE = 4, V4L2_BUF_TYPE_VBI_OUTPUT = 5, V4L2_BUF_TYPE_SLICED_VBI_CAPTURE = 6, V4L2_BUF_TYPE_SLICED_VBI_OUTPUT = 7, V4L2_BUF_TYPE_PRIVATE = 0x80, }; 咱們當然選用V4L2_BUF_TYPE_VIDEO_CAPTURE 對於捕獲設備而言,parm.capture字段是要關注的內容,這個結構體如下: struct v4l2_captureparm { __u32 capability; __u32 capturemode; structv4l2_fract timeperframe; __u32 extendedmode; __u32 readbuffers; __u32 reserved[4]; }; timeperframe字段用於指定想要使用的幀頻率,它又是一個結構體: struct v4l2_fract{ __u32 numerator; __u32 denominator; }; numerator和denominator所描述的系數給出的是成功的幀之間的時間間隔。 numerator 分子,denominator 分母。主要表達每次幀之間時間間隔。 numerator/denominator秒一幀。 3.6:設置Stream參數。(主要是采集幀數) setfps->parm.capture.timeperframe.numerator=1; setfps->parm.capture.timeperframe.denominator=60; rel = ioctl(fdUsbCam,VIDIOC_S_PARM, setfps); if(rel != 0) { printf("\nUnable to Set FPS"); return -1; } 當然,setfps的其它項目,都是之前使用VIDIOC_G_PARM取得的。 3.7:創建一組緩沖區(buf) struct v4l2_requestbuffers rb; memset(&rb, 0, sizeof(structv4l2_requestbuffers)); rb.count = 3; rb.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; rb.memory = V4L2_MEMORY_MMAP; rel = ioctl(fdUsbCam, VIDIOC_REQBUFS,&rb); if (rel < 0) { printf("Unable to allocate buffers: %d.\n",errno); return -1; } 其中參數rb為:struct v4l2_requestbuffers: struct v4l2_requestbuffers { __u32 count; enum v4l2_buf_type type; enum v4l2_memory memory; __u32 reserved[2]; }; type 字段描述的是完成的I/O操作的類型。通常它的值要么是視頻獲得設備的V4L2_BUF_TYPE_VIDEO_CAPTURE,要么是輸出設備的V4L2_BUF_TYPE_VIDEO_OUTPUT struct v4l2_memory: enum v4l2_memory { V4L2_MEMORY_MMAP = 1, V4L2_MEMORY_USERPTR = 2, V4L2_MEMORY_OVERLAY = 3, }; 想要使用內存映謝的緩沖區,它將會把memory字段置為V4L2_MEMORY_MMAP,count置為它想要使用的緩沖區的數目。 順便看看USB TO Serail: Device Drivers --->[*] USB support ---> <M> USB Serial Converter support ---> <M> USB Prolific 2303 Single Port SerialDriver USB Prolific 2303 Single Port Serial Driver是指出支持pl2303芯片的USB 2serial. pl2303.ko USB Serial Converter support是基礎driver. 對應usbserial.ko 注1:ioctl中常用的cmd. VIDIOC_REQBUFS:分配內存 VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的數據緩存轉換成物理地址 VIDIOC_QUERYCAP:查詢驅動功能 VIDIOC_ENUM_FMT:獲取當前驅動支持的視頻格式 VIDIOC_S_FMT:設置當前驅動的頻捕獲格式 VIDIOC_G_FMT:讀取當前驅動的頻捕獲格式 VIDIOC_TRY_FMT:驗證當前驅動的顯示格式 VIDIOC_CROPCAP:查詢驅動的修剪能力 VIDIOC_S_CROP:設置視頻信號的邊框 VIDIOC_G_CROP:讀取視頻信號的邊框 VIDIOC_QBUF:把數據從緩存中讀取出來 VIDIOC_DQBUF:把數據放回緩存隊列 VIDIOC_STREAMON:開始視頻顯示函數 VIDIOC_STREAMOFF:結束視頻顯示函數 VIDIOC_QUERYSTD:檢查當前視頻設備支持的標准,例如PAL或NTSC。 VIDIOC_G_PARM :得到Stream信息。如幀數等。 VIDIOC_S_PARM:設置Stream信息。如幀數等。 注2: 如何判斷某ioctl cmd所用參數類型: 例如: ioctl-cmd: VIDIOC_QUERYCAP. 它的返回參數類型ioctl(fd, cmd, 參數)。 首先想到的是從kernel Sourcev4l2_ioctl.c中看。但這比較麻煩,又個簡單辦法:可以在video2dev.h中看到: #define VIDIOC_QUERYCAP _IOR ('V', 0, struct v4l2_capability) 即使用cmd為 VIDIOC_QUERYCAP 時,參數為structv4l2_capability V4L2是V4L的升級版本,linux下視頻設備程序提供了一套接口規范。 常用的結構體在內核目錄include/linux/videodev2.h中定義 struct v4l2_requestbuffers //申請幀緩沖,對應命令VIDIOC_REQBUFS struct v4l2_capability //視頻設備的功能,對應命令VIDIOC_QUERYCAP struct v4l2_input //視頻輸入信息,對應命令VIDIOC_ENUMINPUT struct v4l2_standard //視頻的制式,比如PAL,NTSC,對應命令VIDIOC_ENUMSTD struct v4l2_format //幀的格式,對應命令VIDIOC_G_FMT、VIDIOC_S_FMT等 struct v4l2_buffer //驅動中的一幀圖像緩存,對應命令VIDIOC_QUERYBUF struct v4l2_crop //視頻信號矩形邊框 v4l2_std_id //視頻制式 V4L2采用流水線的方式,操作更簡單直觀,基本遵循打開視頻設備、設置格式、處理數據、關閉設備,更多的具體操作通過ioctl函數來實現。 1.打開視頻設備 在V4L2中,視頻設備被看做一個文件。使用open函數打開這個設備: // 用非阻塞模式打開攝像頭設備 int cameraFd; cameraFd = open("/dev/video0", O_RDWR | O_NONBLOCK, 0); // 如果用阻塞模式打開攝像頭設備,上述代碼變為: //cameraFd = open("/dev/video0", O_RDWR, 0); 應用程序能夠使用阻塞模式或非阻塞模式打開視頻設備,如果使用非阻塞模式調用視頻設備,即使尚未捕獲到信息,驅動依舊會把緩存(DQBUFF)里的東西返回給應用程序。 2. 設定屬性及采集方式 打開視頻設備后,可以設置該視頻設備的屬性,例如裁剪、縮放等。這一步是可選的。在Linux編程中,一般使用ioctl函數來對設備的I/O通道進行管理: int ioctl (int __fd, unsigned long int __request, .../*args*/) ; 在進行V4L2開發中,常用的命令標志符如下(some are optional): • VIDIOC_REQBUFS:分配內存 • VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的數據緩存轉換成物理地址 • VIDIOC_QUERYCAP:查詢驅動功能 • VIDIOC_ENUM_FMT:獲取當前驅動支持的視頻格式 • VIDIOC_S_FMT:設置當前驅動的頻捕獲格式 • VIDIOC_G_FMT:讀取當前驅動的頻捕獲格式 • VIDIOC_TRY_FMT:驗證當前驅動的顯示格式 • VIDIOC_CROPCAP:查詢驅動的修剪能力 • VIDIOC_S_CROP:設置視頻信號的邊框 • VIDIOC_G_CROP:讀取視頻信號的邊框 • VIDIOC_QBUF:把數據從緩存中讀取出來 • VIDIOC_DQBUF:把數據放回緩存隊列 • VIDIOC_STREAMON:開始視頻顯示函數 • VIDIOC_STREAMOFF:結束視頻顯示函數 • VIDIOC_QUERYSTD:檢查當前視頻設備支持的標准,例如PAL或NTSC。 2.1檢查當前視頻設備支持的標准 在亞洲,一般使用PAL(720X576)制式的攝像頭,而歐洲一般使用NTSC(720X480),使用VIDIOC_QUERYSTD來檢測: v4l2_std_id std; do { ret = ioctl(fd, VIDIOC_QUERYSTD, &std); } while (ret == -1 && errno == EAGAIN); switch (std) { case V4L2_STD_NTSC: //…… case V4L2_STD_PAL: //…… } 2.2 設置視頻捕獲格式 當檢測完視頻設備支持的標准后,還需要設定視頻捕獲格式,結構如下: struct v4l2_format fmt; memset ( &fmt, 0, sizeof(fmt) ); fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; fmt.fmt.pix.width = 720; fmt.fmt.pix.height = 576; fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV; fmt.fmt.pix.field = V4L2_FIELD_INTERLACED; if (ioctl(fd, VIDIOC_S_FMT, &fmt) == -1) { return -1; } v4l2_format結構如下: struct v4l2_format { enum v4l2_buf_type type; //數據流類型,必須永遠是V4L2_BUF_TYPE_VIDEO_CAPTURE union { struct v4l2_pix_format pix; struct v4l2_window win; struct v4l2_vbi_format vbi; __u8 raw_data[200]; } fmt; }; struct v4l2_pix_format { __u32 width; // 寬,必須是16的倍數 __u32 height; // 高,必須是16的倍數 __u32 pixelformat; // 視頻數據存儲類型,例如是YUV4:2:2還是RGB enum v4l2_field field; __u32 bytesperline; __u32 sizeimage; enum v4l2_colorspace colorspace; __u32 priv; }; 2.3 分配內存 接下來可以為視頻捕獲分配內存: struct v4l2_requestbuffers req; req.count = BUFFER_COUNT; req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; req.memory = V4L2_MEMORY_MMAP; if (ioctl(fd, VIDIOC_REQBUFS, &req) == -1) { return -1; } v4l2_requestbuffers 結構如下: struct v4l2_requestbuffers { u32 count;//緩存數量,也就是說在緩存隊列里保持多少張照片 enum v4l2_buf_type type; //數據流類型,必須永遠是V4L2_BUF_TYPE_VIDEO_CAPTURE enum v4l2_memory memory;//V4L2_MEMORY_MMAP或V4L2_MEMORY_USERPTR u32 reserved[2]; }; 2.4 獲取並記錄緩存的物理空間 使用VIDIOC_REQBUFS,我們獲取了req.count個緩存,下一步通過調用VIDIOC_QUERYBUF命令來獲取這些緩存的地址,然后使用mmap函數轉換成應用程序中的絕對地址,最后把這段緩存放入緩存隊列: typedef struct VideoBuffer { void *start; size_t length; } VideoBuffer; v4l2_buffer 結構如下: struct v4l2_buffer { __u32 index; enum v4l2_buf_type type; __u32 bytesused; __u32 flags; enum v4l2_field field; struct timeval timestamp; struct v4l2_timecode timecode; __u32 sequence; /* memory location */ enum v4l2_memory memory; union { __u32 offset; unsigned long userptr; } m; __u32 length; __u32 input; __u32 reserved; }; VideoBuffer* buffers = calloc( req.count, sizeof(*buffers) ); struct v4l2_buffer buf; for (numBufs = 0; numBufs < req.count; numBufs++) { memset( &buf, 0, sizeof(buf) ); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; buf.index = numBufs; // 讀取緩存 if (ioctl(fd, VIDIOC_QUERYBUF, &buf) == -1) { return -1; } buffers[numBufs].length = buf.length; // 轉換成相對地址 buffers[numBufs].start = mmap(NULL, buf.length, PROT_READ | PROT_WRITE, MAP_SHARED,fd, buf.m.offset); if (buffers[numBufs].start == MAP_FAILED) { return -1; } // 放入緩存隊列 if (ioctl(fd, VIDIOC_QBUF, &buf) == -1) { return -1; } } 2.5 視頻采集方式 操作系統一般把系統使用的內存划分成用戶空間和內核空間,分別由應用程序管理和操作系統管理。應用程序可以直接訪問內存的地址,而內核空間存放的是供內核訪問的代碼和數據,用戶不能直接訪問。v4l2捕獲的數據,最初是存放在內核空間的,這意味着用戶不能直接訪問該段內存,必須通過某些手段來轉換地址。 一共有三種視頻采集方式:使用read/write方式;內存映射方式和用戶指針模式。 read、write方式,在用戶空間和內核空間不斷拷貝數據,占用了大量用戶內存空間,效率不高。 內存映射方式:把設備里的內存映射到應用程序中的內存控件,直接處理設備內存,這是一種有效的方式。上面的mmap函數就是使用這種方式。 用戶指針模式:內存片段由應用程序自己分配。這點需要在v4l2_requestbuffers里將memory字段設置成V4L2_MEMORY_USERPTR。 2.6 處理采集數據 V4L2有一個數據緩存,存放req.count數量的緩存數據。數據緩存采用FIFO的方式,當應用程序調用緩存數據時,緩存隊列將最先采集到的視頻數據緩存送出,並重新采集一張視頻數據。這個過程需要用到兩個ioctl命令,VIDIOC_DQBUF和VIDIOC_QBUF: struct v4l2_buffer buf; memset(&buf,0,sizeof(buf)); buf.type=V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory=V4L2_MEMORY_MMAP; buf.index=0; //讀取緩存 if (ioctl(cameraFd, VIDIOC_DQBUF, &buf) == -1) { return -1; } //…………視頻處理算法 //重新放入緩存隊列 if (ioctl(cameraFd, VIDIOC_QBUF, &buf) == -1) { return -1; } 3. 關閉視頻設備 使用close函數關閉一個視頻設備 close(cameraFd) 如果使用mmap,最后還需要使用munmap方法。 下面是damo程序(經過實際驗證,修改了網上的例程的錯誤) ----------------------------------------------------------------------------------------------------------- #include <stdio.h> #include <stdlib.h> #include <string.h> #include <assert.h> #include <getopt.h> #include <fcntl.h> #include <unistd.h> #include <errno.h> #include <malloc.h> #include <sys/stat.h> #include <sys/types.h> #include <sys/time.h> #include <sys/mman.h> #include <sys/ioctl.h> #include <asm/types.h> #include <linux/videodev2.h> #define CAMERA_DEVICE "/dev/video0" #define CAPTURE_FILE "frame.jpg" #define VIDEO_WIDTH 640 #define VIDEO_HEIGHT 480 #define VIDEO_FORMAT V4L2_PIX_FMT_YUYV #define BUFFER_COUNT 4 typedef struct VideoBuffer { void *start; size_t length; } VideoBuffer; int main() { int i, ret; // 打開設備 int fd; fd = open(CAMERA_DEVICE, O_RDWR, 0); if (fd < 0) { printf("Open %s failed\n", CAMERA_DEVICE); return -1; } // 獲取驅動信息 struct v4l2_capability cap; ret = ioctl(fd, VIDIOC_QUERYCAP, &cap); if (ret < 0) { printf("VIDIOC_QUERYCAP failed (%d)\n", ret); return ret; } // Print capability infomations printf("Capability Informations:\n"); printf(" driver: %s\n", cap.driver); printf(" card: %s\n", cap.card); printf(" bus_info: %s\n", cap.bus_info); printf(" version: %08X\n", cap.version); printf(" capabilities: %08X\n", cap.capabilities); // 設置視頻格式 struct v4l2_format fmt; memset(&fmt, 0, sizeof(fmt)); fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; fmt.fmt.pix.width = VIDEO_WIDTH; fmt.fmt.pix.height = VIDEO_HEIGHT; fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV; fmt.fmt.pix.field = V4L2_FIELD_INTERLACED; ret = ioctl(fd, VIDIOC_S_FMT, &fmt); if (ret < 0) { printf("VIDIOC_S_FMT failed (%d)\n", ret); return ret; } // 獲取視頻格式 ret = ioctl(fd, VIDIOC_G_FMT, &fmt); if (ret < 0) { printf("VIDIOC_G_FMT failed (%d)\n", ret); return ret; } // Print Stream Format printf("Stream Format Informations:\n"); printf(" type: %d\n", fmt.type); printf(" width: %d\n", fmt.fmt.pix.width); printf(" height: %d\n", fmt.fmt.pix.height); char fmtstr[8]; memset(fmtstr, 0, 8); memcpy(fmtstr, &fmt.fmt.pix.pixelformat, 4); printf(" pixelformat: %s\n", fmtstr); printf(" field: %d\n", fmt.fmt.pix.field); printf(" bytesperline: %d\n", fmt.fmt.pix.bytesperline); printf(" sizeimage: %d\n", fmt.fmt.pix.sizeimage); printf(" colorspace: %d\n", fmt.fmt.pix.colorspace); printf(" priv: %d\n", fmt.fmt.pix.priv); printf(" raw_date: %s\n", fmt.fmt.raw_data); // 請求分配內存 struct v4l2_requestbuffers reqbuf; reqbuf.count = BUFFER_COUNT; reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; reqbuf.memory = V4L2_MEMORY_MMAP; ret = ioctl(fd , VIDIOC_REQBUFS, &reqbuf); if(ret < 0) { printf("VIDIOC_REQBUFS failed (%d)\n", ret); return ret; } // 獲取空間 VideoBuffer* buffers = calloc( reqbuf.count, sizeof(*buffers) ); struct v4l2_buffer buf; for (i = 0; i < reqbuf.count; i++) { buf.index = i; buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; ret = ioctl(fd , VIDIOC_QUERYBUF, &buf); if(ret < 0) { printf("VIDIOC_QUERYBUF (%d) failed (%d)\n", i, ret); return ret; } // mmap buffer framebuf[i].length = buf.length; framebuf[i].start = (char *) mmap(0, buf.length, PROT_READ|PROT_WRITE, MAP_SHARED, fd, buf.m.offset); if (framebuf[i].start == MAP_FAILED) { printf("mmap (%d) failed: %s\n", i, strerror(errno)); return -1; } // Queen buffer ret = ioctl(fd , VIDIOC_QBUF, &buf); if (ret < 0) { printf("VIDIOC_QBUF (%d) failed (%d)\n", i, ret); return -1; } printf("Frame buffer %d: address=0x%x, length=%d\n", i, (unsigned int)framebuf[i].start, framebuf[i].length); } // 開始錄制 enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE; ret = ioctl(fd, VIDIOC_STREAMON, &type); if (ret < 0) { printf("VIDIOC_STREAMON failed (%d)\n", ret); return ret; } // Get frame ret = ioctl(fd, VIDIOC_DQBUF, &buf); if (ret < 0) { printf("VIDIOC_DQBUF failed (%d)\n", ret); return ret; } // Process the frame FILE *fp = fopen(CAPTURE_FILE, "wb"); if (fp < 0) { printf("open frame data file failed\n"); return -1; } fwrite(framebuf[buf.index].start, 1, buf.length, fp); fclose(fp); printf("Capture one frame saved in %s\n", CAPTURE_FILE); // Re-queen buffer ret = ioctl(fd, VIDIOC_QBUF, &buf); if (ret < 0) { printf("VIDIOC_QBUF failed (%d)\n", ret); return ret; } // Release the resource for (i=0; i< 4; i++) { munmap(framebuf[i].start, framebuf[i].length); } close(fd); printf("Camera test Done.\n"); return 0; } ----------------------------------------------------------------------------------------------------------- 附件: void *mmap(void *start, size_t length, int prot, int flags, int fd, off_t offset); int munmap(void *start, size_t length); 參數說明: ——start:映射區的開始地址。 ——length:映射區的長度。 ——prot:期望的內存保護標志,不能與文件的打開模式沖突。是以下的某個值,可以通過or運算合理地組合在一起 —PROT_EXEC //頁內容可以被執行 —PROT_READ //頁內容可以被讀取 —PROT_WRITE //頁可以被寫入 —PROT_NONE //頁不可訪問 ——flags:指定映射對象的類型,映射選項和映射頁是否可以共享。它的值可以是一個或者多個以下位的組合體 —MAP_FIXED //使用指定的映射起始地址,如果由start和len參數指定的內存區重疊於現存的映射空間,重疊部分將會被丟棄。如果指定的起始地址不可用,操作將會失敗。並且起始地址必須落在頁的邊界上。 —MAP_SHARED //與其它所有映射這個對象的進程共享映射空間。對共享區的寫入,相當於輸出到文件。直到msync()或者munmap()被調用,文件實際上不會被更新。 —MAP_PRIVATE //建立一個寫入時拷貝的私有映射。內存區域的寫入不會影響到原文件。這個標志和以上標志是互斥的,只能使用其中一個。 —MAP_DENYWRITE //這個標志被忽略。 —MAP_EXECUTABLE //同上 —MAP_NORESERVE //不要為這個映射保留交換空間。當交換空間被保留,對映射區修改的可能會得到保證。當交換空間不被保留,同時內存不足,對映射區的修改會引起段違例信號。 —MAP_LOCKED //鎖定映射區的頁面,從而防止頁面被交換出內存。 —MAP_GROWSDOWN //用於堆棧,告訴內核VM系統,映射區可以向下擴展。 —MAP_ANONYMOUS //匿名映射,映射區不與任何文件關聯。 —MAP_ANON //MAP_ANONYMOUS的別稱,不再被使用。 —MAP_FILE //兼容標志,被忽略。 —MAP_32BIT //將映射區放在進程地址空間的低2GB,MAP_FIXED指定時會被忽略。當前這個標志只在x86-64平台上得到支持。 —MAP_POPULATE //為文件映射通過預讀的方式准備好頁表。隨后對映射區的訪問不會被頁違例阻塞。 —MAP_NONBLOCK //僅和MAP_POPULATE一起使用時才有意義。不執行預讀,只為已存在於內存中的頁面建立頁表入口。 ——fd:有效的文件描述詞。如果MAP_ANONYMOUS被設定,為了兼容問題,其值應為-1。 ——offset:被映射對象內容的起點。 返回值: 成功執行時,mmap()返回被映射區的指針,munmap()返回0。 失敗時,mmap()返回MAP_FAILED[其值為(void *)-1],munmap返回-1。errno被設為以下的某個值。