內容摘要:
Video for Linux two(Video4Linux2)簡稱V4L2,是V4L的改進版。V4L2是linux操作系統下用於采集圖片、視頻和音頻數據的API接口,配合適當的視頻采集設備和相應的驅動程序,可以實現圖片、視頻、音頻等的采集。在遠程會議、可視電話、視頻監控系統和嵌入式多媒體終端中都有廣泛的應用。在Linux中,視頻設備是設備文件,可以像訪問普通文件一樣對其進行讀寫,攝像頭在/dev/video2下。
最近想做智能機器人,想加上視頻采集這個模塊,於是對linux下的視頻方面的編程產生了興趣,首先從入門開始吧!
一、Video for Linux Tow
在Linux下,所有外設都被看成一種特殊的文件,成為“設備文件”,可以象訪問普通文件一樣對其進行讀寫。一般來說,采用V4L2驅動的攝像頭設備文件是/dev/v4l/video0。為了通用,可以建立一個到/dev/video0的鏈接。V4L2支持兩種方式來采集圖像:內存映射方式(mmap)和直接讀取方式(read)。V4L2在include/linux/videodev.h文件中定義了一些重要的數據結構,在采集圖像的過程中,就是通過對這些數據的操作來獲得最終的圖像數據。Linux系統V4L2的能力可在Linux內核編譯階段配置,默認情況下都有此開發接口。V4L2從Linux 2.5.x版本的內核中開始出現。
V4L2規范中不僅定義了通用API元素(Common API Elements),圖像的格式(Image Formats),輸入/輸出方法(Input/Output),還定義了Linux內核驅動處理視頻信息的一系列接口(Interfaces),這些接口主要有:
視頻采集接口——Video Capture Interface;
視頻輸出接口—— Video Output Interface;
視頻覆蓋/預覽接口——Video Overlay Interface;
視頻輸出覆蓋接口——Video Output Overlay Interface;
編解碼接口——Codec Interface。
二、操作流程
關於V4L2的介紹網上很多,這里簡單說下我們經常常用相關結構體:
struct v4l2_requestbuffers reqbufs;//向驅動申請幀緩沖的請求,里面包含申請的個數
struct v4l2_capability cap;//這個設備的功能,比如是否是視頻輸入設備
struct v4l2_standard std;//視頻的制式,比如PAL,NTSC
struct v4l2_format fmt;//幀的格式,比如寬度,高度等
struct v4l2_buffer buf;//代表驅動中的一幀
v4l2_std_id stdid;//視頻制式,例如:V4L2_STD_PAL_B
struct v4l2_queryctrl query;//查詢的控制
struct v4l2_control control;//具體控制的值
下面就介紹相關的操作流程:
1.打開設備文件。 int fd=open(”/dev/video2″,O_RDWR);
2.取得設備的capability,看看設備具有什么功能,比如是否具有視頻輸入,或者音頻輸入輸出等。VIDIOC_QUERYCAP,struct v4l2_capability
3.設置視頻的制式和幀格式,制式包括PAL,NTSC,幀的格式個包括寬度和高度等。
VIDIOC_S_STD,VIDIOC_S_FMT,struct v4l2_std_id,struct v4l2_format
4.向驅動申請幀緩沖,一般不超過5個。struct v4l2_requestbuffers
5.將申請到的幀緩沖映射到用戶空間,這樣就可以直接操作采集到的幀了,而不必去復制。mmap
6.將申請到的幀緩沖全部入隊列,以便存放采集到的數據.VIDIOC_QBUF,struct v4l2_buffer
7.開始視頻的采集。VIDIOC_STREAMON
8.出隊列以取得已采集數據的幀緩沖,取得原始采集數據。VIDIOC_DQBUF
9.將緩沖重新入隊列尾,這樣可以循環采集。VIDIOC_QBUF
10.停止視頻的采集。VIDIOC_STREAMOFF
11.關閉視頻設備。close(fd);
以下詳細介紹操作流程(相信對新手有用):
1. 定義
V4L2(Video For Linux Two) 是內核提供給應用程序訪問音、視頻驅動的統一接口。
2. 工作流程:
打開設備-> 檢查和設置設備屬性-> 設置幀格式-> 設置一種輸入輸出方法(緩沖區管理)-> 循環獲取數據-> 關閉設備。
3. 設備的打開和關閉:
#include <fcntl.h>
int open(const char *device_name, int flags);
#include <unistd.h>
int close(int fd);
例:
int fd=open(“/dev/video2”,O_RDWR);// 打開設備
close(fd);// 關閉設備
注意:V4L2 的相關定義包含在頭文件<linux/videodev2.h> 中.
4. 查詢設備屬性: VIDIOC_QUERYCAP
相關函數:
int ioctl(int fd, int request, struct v4l2_capability *argp);
相關結構體:
struct v4l2_capability
{
__u8 driver[16]; // 驅動名字
__u8 card[32]; // 設備名字
__u8 bus_info[32]; // 設備在系統中的位置
__u32 version; // 驅動版本號
__u32 capabilities; // 設備支持的操作
__u32 reserved[4]; // 保留字段
};
capabilities 常用值:
V4L2_CAP_VIDEO_CAPTURE // 是否支持圖像獲取
例:顯示設備信息
struct v4l2_capability cap;
ioctl(fd,VIDIOC_QUERYCAP,&cap);
printf(“Driver Name:%s/nCard Name:%s/nBus info:%s/nDriver Version:%u.%u.%u/n”,cap.driver,cap.card,cap.bus_info,(cap.version>>16)&0XFF, (cap.version>>8)&0XFF,cap.version&OXFF);
5. 幀格式:
VIDIOC_ENUM_FMT // 顯示所有支持的格式
int ioctl(int fd, int request, struct v4l2_fmtdesc *argp);
struct v4l2_fmtdesc
{
__u32 index; // 要查詢的格式序號,應用程序設置
enum v4l2_buf_type type; // 幀類型,應用程序設置
__u32 flags; // 是否為壓縮格式
__u8 description[32]; // 格式名稱
__u32 pixelformat; // 格式
__u32 reserved[4]; // 保留
};
例:顯示所有支持的格式
struct v4l2_fmtdesc fmtdesc;
fmtdesc.index=0;
fmtdesc.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;
printf("Support format:/n");
while(ioctl(fd,VIDIOC_ENUM_FMT,&fmtdesc)!=-1)
{
printf("/t%d.%s/n",fmtdesc.index+1,fmtdesc.description);
fmtdesc.index++;
}
// 查看或設置當前格式
VIDIOC_G_FMT, VIDIOC_S_FMT
// 檢查是否支持某種格式
VIDIOC_TRY_FMT
int ioctl(int fd, int request, struct v4l2_format *argp);
struct v4l2_format
{
enum v4l2_buf_type type;// 幀類型,應用程序設置
union fmt
{
struct v4l2_pix_format pix;// 視頻設備使用
struct v4l2_window win;
struct v4l2_vbi_format vbi;
struct v4l2_sliced_vbi_format sliced;
__u8 raw_data[200];
};
};
struct v4l2_pix_format
{
__u32 width; // 幀寬,單位像素
__u32 height; // 幀高,單位像素
__u32 pixelformat; // 幀格式
enum v4l2_field field;
__u32 bytesperline;
__u32 sizeimage;
enum v4l2_colorspace colorspace;
__u32 priv;
};
例:顯示當前幀的相關信息
struct v4l2_format fmt;
fmt.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;
ioctl(fd,VIDIOC_G_FMT,&fmt);
printf(“Current data format information:/n/twidth:%d/n/theight:%d/n”,fmt.fmt.width,fmt.fmt.height);
struct v4l2_fmtdesc fmtdesc;
fmtdesc.index=0;
fmtdesc.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;
while(ioctl(fd,VIDIOC_ENUM_FMT,&fmtdesc)!=-1)
{
if(fmtdesc.pixelformat & fmt.fmt.pixelformat)
{
printf(“/tformat:%s/n”,fmtdesc.description);
break;
}
fmtdesc.index++;
}
例:檢查是否支持某種幀格式
struct v4l2_format fmt;
fmt.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;
fmt.fmt.pix.pixelformat=V4L2_PIX_FMT_RGB32;
if(ioctl(fd,VIDIOC_TRY_FMT,&fmt)==-1)
if(errno==EINVAL)
printf(“not support format RGB32!/n”);
6. 圖像的縮放
VIDIOC_CROPCAP
int ioctl(int fd, int request, struct v4l2_cropcap *argp);
struct v4l2_cropcap
{
enum v4l2_buf_type type;// 應用程序設置
struct v4l2_rect bounds;// 最大邊界
struct v4l2_rect defrect;// 默認值
struct v4l2_fract pixelaspect;
};
// 設置縮放
VIDIOC_G_CROP,VIDIOC_S_CROP
int ioctl(int fd, int request, struct v4l2_crop *argp);
int ioctl(int fd, int request, const struct v4l2_crop *argp);
struct v4l2_crop
{
enum v4l2_buf_type type;// 應用程序設置
struct v4l2_rect c;
}
7. 申請和管理緩沖區,應用程序和設備有三種交換數據的方法,直接 read/write ,內存映射(memory mapping) ,用戶指針。這里只討論 memory mapping.
// 向設備申請緩沖區
VIDIOC_REQBUFS
int ioctl(int fd, int request, struct v4l2_requestbuffers *argp);
struct v4l2_requestbuffers
{
__u32 count; // 緩沖區內緩沖幀的數目
enum v4l2_buf_type type; // 緩沖幀數據格式
enum v4l2_memory memory; // 區別是內存映射還是用戶指針方式
__u32 reserved[2];
};
enum v4l2_memoy {V4L2_MEMORY_MMAP,V4L2_MEMORY_USERPTR};
//count,type,memory 都要應用程序設置
例:申請一個擁有四個緩沖幀的緩沖區
struct v4l2_requestbuffers req;
req.count=4;
req.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;
req.memory=V4L2_MEMORY_MMAP;
ioctl(fd,VIDIOC_REQBUFS,&req);
獲取緩沖幀的地址,長度:
VIDIOC_QUERYBUF
int ioctl(int fd, int request, struct v4l2_buffer *argp);
struct v4l2_buffer
{
__u32 index; //buffer 序號
enum v4l2_buf_type type; //buffer 類型
__u32 byteused; //buffer 中已使用的字節數
__u32 flags; // 區分是MMAP 還是USERPTR
enum v4l2_field field;
struct timeval timestamp;// 獲取第一個字節時的系統時間
struct v4l2_timecode timecode;
__u32 sequence; // 隊列中的序號
enum v4l2_memory memory;//IO 方式,被應用程序設置
union m
{
__u32 offset;// 緩沖幀地址,只對MMAP 有效
unsigned long userptr;
};
__u32 length;// 緩沖幀長度
__u32 input;
__u32 reserved;
};
MMAP ,定義一個結構體來映射每個緩沖幀。
Struct buffer
{
void* start;
unsigned int length;
}*buffers;
#include <sys/mman.h>
void *mmap(void *addr, size_t length, int prot, int flags, int fd, off_t offset);
//addr 映射起始地址,一般為NULL ,讓內核自動選擇
//length 被映射內存塊的長度
//prot 標志映射后能否被讀寫,其值為PROT_EXEC,PROT_READ,PROT_WRITE, PROT_NONE
//flags 確定此內存映射能否被其他進程共享,MAP_SHARED,MAP_PRIVATE
//fd,offset, 確定被映射的內存地址
返回成功映射后的地址,不成功返回MAP_FAILED ((void*)-1);
int munmap(void *addr, size_t length);// 斷開映射
//addr 為映射后的地址,length 為映射后的內存長度
例:將四個已申請到的緩沖幀映射到應用程序,用buffers 指針記錄。
buffers = (buffer*)calloc (req.count, sizeof (*buffers));
if (!buffers) {
fprintf (stderr, "Out of memory/n");
exit (EXIT_FAILURE);
}
// 映射
for (unsigned int n_buffers = 0; n_buffers < req.count; ++n_buffers) {
struct v4l2_buffer buf;
memset(&buf,0,sizeof(buf));
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
buf.index = n_buffers;
// 查詢序號為n_buffers 的緩沖區,得到其起始物理地址和大小
if (-1 == ioctl (fd, VIDIOC_QUERYBUF, &buf))
exit(-1);
buffers[n_buffers].length = buf.length;
// 映射內存
buffers[n_buffers].start =mmap (NULL,buf.length,PROT_READ | PROT_WRITE ,MAP_SHARED,fd, buf.m.offset);
if (MAP_FAILED == buffers[n_buffers].start)
exit(-1);
}
8. 緩沖區處理好之后,就可以開始獲取數據了
// 啟動/ 停止數據流
VIDIOC_STREAMON,VIDIOC_STREAMOFF
int ioctl(int fd, int request, const int *argp);
//argp 為流類型指針,如V4L2_BUF_TYPE_VIDEO_CAPTURE.
在開始之前,還應當把緩沖幀放入緩沖隊列:
VIDIOC_QBUF// 把幀放入隊列
VIDIOC_DQBUF// 從隊列中取出幀
int ioctl(int fd, int request, struct v4l2_buffer *argp);
例:把四個緩沖幀放入隊列,並啟動數據流
unsigned int i;
enum v4l2_buf_type type;
// 將緩沖幀放入隊列
for (i = 0; i < 4; ++i)
{
struct v4l2_buffer buf;
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
buf.index = i;
ioctl (fd, VIDIOC_QBUF, &buf);
}
type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
ioctl (fd, VIDIOC_STREAMON, &type);
// 這有個問題,這些buf 看起來和前面申請的buf 沒什么關系,為什么呢?
例:獲取一幀並處理
struct v4l2_buffer buf;
CLEAR (buf);
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
// 從緩沖區取出一個緩沖幀
ioctl (fd, VIDIOC_DQBUF, &buf);
// 圖像處理
process_image (buffers[buf.index].start);
// 將取出的緩沖幀放回緩沖區
ioctl (fd, VIDIOC_QBUF, &buf);
關於視頻采集方式
操作系統一般把系統使用的內存划分成用戶空間和內核空間,分別由應用程序管理和操作系統管理。應用程序可以直接訪問內存的地址,而內核空間存放的是供內核訪問的代碼和數據,用戶不能直接訪問。v4l2捕獲的數據,最初是存放在內核空間的,這意味着用戶不能直接訪問該段內存,必須通過某些手段來轉換地址。
一共有三種視頻采集方式:使用read、write方式;內存映射方式和用戶指針模式。
read、write方式:在用戶空間和內核空間不斷拷貝數據,占用了大量用戶內存空間,效率不高。
內存映射方式:把設備里的內存映射到應用程序中的內存控件,直接處理設備內存,這是一種有效的方式。上面的mmap函數就是使用這種方式。
用戶指針模式:內存片段由應用程序自己分配。這點需要在v4l2_requestbuffers里將memory字段設置成V4L2_MEMORY_USERPTR。
處理采集數據
V4L2有一個數據緩存,存放req.count數量的緩存數據。數據緩存采用FIFO的方式,當應用程序調用緩存數據時,緩存隊列將最先采集到的 視頻數據緩存送出,並重新采集一張視頻數據。這個過程需要用到兩個ioctl命令,VIDIOC_DQBUF和VIDIOC_QBUF:
structv4l2_buffer buf;
memset(&buf,0,sizeof(buf));
buf.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory=V4L2_MEMORY_MMAP;
buf.index=0;
//讀取緩存
if(ioctl(cameraFd, VIDIOC_DQBUF, &buf) == -1)
{
return-1;
}
//…………視頻處理算法
//重新放入緩存隊列
if(ioctl(cameraFd, VIDIOC_QBUF, &buf) == -1) {
return-1;
}
關閉視頻設備
使用close函數關閉一個視頻設備
close(cameraFd)
還需要使用munmap方法。
下面是我自己參照網上一步步寫的,成功采集.
/*============================================================================= # FileName: v4l2.c # Desc: this program aim to get image from USB camera, # used the V4L2 interface. # Author: LiXiaoming # Email: lixiaoming5700@gmail.com # HomePage: http://www.cnblogs.com/lixiaoming90 # Version: 0.0.1 # LastChange: 2012-08-22 15:52:37 # History: =============================================================================*/ #include <unistd.h> #include <sys/types.h> #include <sys/stat.h> #include <fcntl.h> #include <stdio.h> #include <sys/ioctl.h> #include <stdlib.h> #include <linux/types.h> #include <linux/videodev2.h> #include <malloc.h> #include <math.h> #include <string.h> #include <sys/mman.h> #include <errno.h> #include <assert.h> #define FILE_VIDEO "/dev/video2" #define JPG "/lxm/picture/image%d.jpg" typedef struct{ void *start; int length; }BUFTYPE; BUFTYPE *usr_buf; static unsigned int n_buffer = 0; //set video capture ways(mmap) int init_mmap(int fd) { //to request frame cache, contain requested counts struct v4l2_requestbuffers reqbufs; //request V4L2 driver allocation video cache //this cache is locate in kernel and need mmap mapping memset(&reqbufs, 0, sizeof(reqbufs)); reqbufs.count = 4; reqbufs.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; reqbufs.memory = V4L2_MEMORY_MMAP; if(-1 == ioctl(fd,VIDIOC_REQBUFS,&reqbufs)){ perror("Fail to ioctl 'VIDIOC_REQBUFS'"); exit(EXIT_FAILURE); } n_buffer = reqbufs.count; printf("n_buffer = %d\n", n_buffer); usr_buf = calloc(reqbufs.count, sizeof(usr_buf)); if(usr_buf == NULL){ printf("Out of memory\n"); exit(-1); } //map kernel cache to user process for(n_buffer = 0; n_buffer < reqbufs.count; ++n_buffer){ //stand for a frame struct v4l2_buffer buf; memset(&buf, 0, sizeof(buf)); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; buf.index = n_buffer; //check the information of the kernel cache requested if(-1 == ioctl(fd,VIDIOC_QUERYBUF,&buf)) { perror("Fail to ioctl : VIDIOC_QUERYBUF"); exit(EXIT_FAILURE); } usr_buf[n_buffer].length = buf.length; usr_buf[n_buffer].start = (char *)mmap( NULL, buf.length, PROT_READ | PROT_WRITE, MAP_PRIVATE, fd, buf.m.offset ); if(MAP_FAILED == usr_buf[n_buffer].start) { perror("Fail to mmap"); exit(EXIT_FAILURE); } } return 0; } //initial camera device int init_camera_device(int fd) { //decive fuction, such as video input struct v4l2_capability cap; //video standard,such as PAL,NTSC struct v4l2_standard std; //frame format struct v4l2_format tv_fmt; //check control struct v4l2_queryctrl query; //detail control value struct v4l2_fmtdesc fmt; int ret; //get the format of video supply memset(&fmt, 0, sizeof(fmt)); fmt.index = 0; //supply to image capture fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; // show all format of supply printf("Support format:\n"); while(ioctl(fd, VIDIOC_ENUM_FMT, &fmt) == 0){ fmt.index++; printf("pixelformat = ''%c%c%c%c''\ndescription = ''%s''\n",fmt.pixelformat & 0xFF, (fmt.pixelformat >> 8) & 0xFF,(fmt.pixelformat >> 16) & 0xFF, (fmt.pixelformat >> 24) & 0xFF,fmt.description); } //check video decive driver capability ret = ioctl(fd, VIDIOC_QUERYCAP, &cap); if(ret < 0){ perror("Fail to ioctl VIDEO_QUERYCAP"); exit(EXIT_FAILURE); } //judge wherher or not to be a video-get device if(!(cap.capabilities & V4L2_BUF_TYPE_VIDEO_CAPTURE)) { printf("The Current device is not a video capture device\n"); exit(-1); } //judge whether or not to supply the form of video stream if(!(cap.capabilities & V4L2_CAP_STREAMING)) { printf("The Current device does not support streaming i/o\n"); exit(EXIT_FAILURE); } //set the form of camera capture data tv_fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; tv_fmt.fmt.pix.width = 680; tv_fmt.fmt.pix.height = 480; tv_fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_MJPEG; tv_fmt.fmt.pix.field = V4L2_FIELD_INTERLACED; if (ioctl(fd, VIDIOC_S_FMT, &tv_fmt)< 0) { printf("VIDIOC_S_FMT\n"); exit(-1); close(fd); } //initial video capture way(mmap) init_mmap(fd); return 0; } int open_camera_device() { int fd; //open video device with block fd = open(FILE_VIDEO, O_RDONLY); if(fd < 0){ perror(FILE_VIDEO); exit(EXIT_FAILURE); } return fd; } int start_capture(int fd) { unsigned int i; enum v4l2_buf_type type; //place the kernel cache to a queue for(i = 0; i < n_buffer; i++){ struct v4l2_buffer buf; memset(&buf, 0, sizeof(buf)); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; buf.index = i; if(-1 == ioctl(fd, VIDIOC_QBUF, &buf)){ perror("Fail to ioctl 'VIDIOC_QBUF'"); exit(EXIT_FAILURE); } } //start capture data type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if(-1 == ioctl(fd, VIDIOC_STREAMON, &type)){ printf("i=%d.\n", i); perror("VIDIOC_STREAMON"); close(fd); exit(EXIT_FAILURE); } return 0; } int process_image(void *addr, int length) { FILE *fp; static int num = 0; char image_name[20]; sprintf(image_name, JPG, num++); if((fp = fopen(image_name, "w")) == NULL){ perror("Fail to fopen"); exit(EXIT_FAILURE); } fwrite(addr, length, 1, fp); usleep(500); fclose(fp); return 0; } int read_frame(int fd) { struct v4l2_buffer buf; unsigned int i; memset(&buf, 0, sizeof(buf)); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; //put cache from queue if(-1 == ioctl(fd, VIDIOC_DQBUF,&buf)){ perror("Fail to ioctl 'VIDIOC_DQBUF'"); exit(EXIT_FAILURE); } assert(buf.index < n_buffer); //read process space's data to a file process_image(usr_buf[buf.index].start, usr_buf[buf.index].length); if(-1 == ioctl(fd, VIDIOC_QBUF,&buf)){ perror("Fail to ioctl 'VIDIOC_QBUF'"); exit(EXIT_FAILURE); } return 1; } int mainloop(int fd) { int count = 10; while(count-- > 0) { for(;;) { fd_set fds; struct timeval tv; int r; FD_ZERO(&fds); FD_SET(fd,&fds); /*Timeout*/ tv.tv_sec = 2; tv.tv_usec = 0; r = select(fd + 1,&fds,NULL,NULL,&tv); if(-1 == r) { if(EINTR == errno) continue; perror("Fail to select"); exit(EXIT_FAILURE); } if(0 == r) { fprintf(stderr,"select Timeout\n"); exit(-1); } if(read_frame(fd)) break; } } return 0; } void stop_capture(int fd) { enum v4l2_buf_type type; type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if(-1 == ioctl(fd,VIDIOC_STREAMOFF,&type)) { perror("Fail to ioctl 'VIDIOC_STREAMOFF'"); exit(EXIT_FAILURE); } return; } void close_camera_device(int fd) { unsigned int i; for(i = 0;i < n_buffer; i++) { if(-1 == munmap(usr_buf[i].start,usr_buf[i].length)){ exit(-1); } } free(usr_buf); if(-1 == close(fd)) { perror("Fail to close fd"); exit(EXIT_FAILURE); } return; } int main() { int fd; fd = open_camera_device(); init_camera_device(fd); start_capture(fd); mainloop(fd); stop_capture(fd); close_camera_device(fd); return 0; }
終於可以讀取USB攝像頭的圖像了, 感謝前人的文章。后面需要編寫的就是圖像處理,例如H.264編碼和通過UDP數據傳輸到客戶端等等。
參考文章:
fengjingge815的空間:http://hi.baidu.com/fengjingge815/item/64597e0c68e870e3a01034fd
鎧甲&秦的梅阿查: http://blog.chinaunix.net/uid/11765716.html(這篇文章總結的很好,很詳細)
草根老師: http://blog.chinaunix.net/uid-26833883-id-3249346.html