Linux V4L2程式設計
本博文轉自http://www.cnblogs.com/sky-heaven/p/6904516.html,多謝分享。
USB video class(又稱為USB video device class or UVC)就是USB device class視訊產品在不需要安裝任何的驅動程式下即插即用,包括攝像頭、數字攝影機、模擬視訊轉換器、電視卡及靜態視訊相機。
最新的UVC版本為UVC 1.5,由USB-IF(USB Implementers Forum)定義包括基本協議及負載格式
這個連結是Linux中對UVC支援的相關描述。http://www.ideasonboard.org/uvc/V4L2:
Video4Linux或V4L是一個視訊擷取及裝置輸出API,以及Linux的驅動程式框架,支援很多USB攝像頭、電視調諧卡以及其他裝置。Video4Linux與Linux核心緊密整合,Video4Linux取名的靈感來自Video for Windows(有時候會縮寫為“V4W”),但兩者在技術上並沒有任何關係。
從兩個的介紹也能看出來這兩者之間的關係。
簡單的講V4L2就是用來管理UVC裝置的並且能夠提供視訊相關的一些API。那麼這些API怎麼使用或者能被誰使用呢。在Linux系統上有很多的開源軟體能夠支援V4L2。常見的又FFmpeg、OpenCV、Skype、Mplayer等等。
這樣一個UVC能夠進行視訊顯示的話應該滿足三個條件:
1 UVC的camera硬體支援
2 UVC驅動支援,包括USB裝置驅動以及v4l2的支援
3 上層的應用程式支援
linux UVC驅動是為了全面的支援UVC裝置。它包括V4L2核心驅動程式和使用者空間工具補丁。這個視訊裝置或者USB視訊類的USB裝置類的定義定義了在USB上的視訊流的功能。UVC型別的外設只需要一個通用的驅動支援就能夠正常工作,就像USB 大容量儲存裝置一樣。
UVC的linux kernel驅動程式和支援的硬體裝置都在這裡有相關的描述:http://www.ideasonboard.org/uvc/。
判斷一個攝像頭是否屬於UVC規範可以使用如下方法:
1 使用lsusb命令或其他硬體資訊檢視工具,找出攝像頭的裝置號(Vendor ID)和產品號(Product ID)。
2 查詢是否有視訊類藉口資訊
lsusb -d VID:PID -v | grep "14 Video"
如果相容UVC,則會輸出類似資訊
bFunctionClass 14 Video
bInterfaceClass 14 Video
bInterfaceClass 14 Video
bInterfaceClass 14 Video
如果沒有以上資訊,則是non-UVC裝置。
1. Kernel配置:
Device Drivers ---> <*> Multimediasupport ---> <M> Video For Linux
Device Drivers ---> <*> Multimediasupport ---> [*] Video capture adapters ---> [*] V4L USB devices ---> <M> USB Video Class (UVC)--- V4L USB devices :這裡還有很多特定廠商的driver.可供選擇。
分析:
"USB Video Class(UVC)":對應的driver是:uvcvideo.ko
"Video For Linux": 對應driver是:videodev.ko安裝driver順序如下:
insmod v4l1_compat.ko
insmod videodev.ko
insmod uvcvideo.ko
driver會建立一個或多個主裝置號為81,次裝置號:0-255的裝置。
除了camera會建立為:/dev/videoX 之外,還有VBI裝置-/dev/vbiX.Radio裝置--/dev/radioX.
2. V4L2一些概念:
2.1:Video Input and Output:
video input and output是指device物理連線。
只有video 和VBI capture擁有input.
Radio裝置則沒有video input 和output.
2.2: Video Standards:
Video Device支援一個或多個Video 標準。
3. 使用V4L2程式設計:
使用V4L2(Video for Linux 2) API的過程大致如下:
Opening the device
Changing device properties, selecting a video and audio input,video standard, picture brightness a. o.
Negotiating a data format
Negotiating an input/output method
The actual input/output loop
Closing the device
3.1:開啟裝置:
fd = open("/dev/video0", O_RDWR, 0); //以阻塞模式開啟設想頭
3.2: 查詢裝置能力:Querying Capabilities:
因為V4L2可以對多種裝置程式設計,所以並不是所有API可以對所有裝置程式設計,哪怕是同類型的裝置,使用ioctl--VIDIOC_QUERYCAP去詢問支援什麼功能。struct v4l2_capability cap;
rel = ioctl(fdUsbCam, VIDIOC_QUERYCAP,&cap);
if(rel != 0)
{perror("ioctl VIDIOC_QUERYCAP");
return -1;
}
結構體如下:
struct v4l2_capability
{
__u8 driver[16];
__u8 card[32];
__u8 bus_info[32];
__u32 version;
__u32 capabilities;
__u32 reserved[4];
};
這裡面最重要的是:capabilities:標頭檔案linux/videodev2.h和kernel標頭檔案linux/videodev2.h中都有描述:
#define V4L2_CAP_VIDEO_CAPTURE 0x00000001
#define V4L2_CAP_VIDEO_OUTPUT 0x00000002
#define V4L2_CAP_VIDEO_OVERLAY 0x00000004
#define V4L2_CAP_VBI_CAPTURE 0x00000010
#define V4L2_CAP_VBI_OUTPUT 0x00000020
#define V4L2_CAP_SLICED_VBI_CAPTURE 0x00000040
#define V4L2_CAP_SLICED_VBI_OUTPUT 0x00000080
#define V4L2_CAP_RDS_CAPTURE 0x00000100
#define V4L2_CAP_VIDEO_OUTPUT_OVERLAY 0x00000200
#define V4L2_CAP_HW_FREQ_SEEK 0x00000400
#define V4L2_CAP_RDS_OUTPUT 0x00000800
#define V4L2_CAP_TUNER 0x00010000#define V4L2_CAP_AUDIO 0x00020000
#define V4L2_CAP_RADIO 0x00040000
#define V4L2_CAP_MODULATOR 0x00080000
#define V4L2_CAP_READWRITE 0x01000000#define V4L2_CAP_ASYNCIO 0x02000000
#define V4L2_CAP_STREAMING 0x04000000
這裡要說到VBI, Vertical Blanking Interval的縮寫 。電視訊號包括一部分非可視訊號,它不傳送可視資訊,因此被稱為ⅦI(垂直消隱期間)。VBI可以用於傳送其他資訊,通常是一種專用字幕訊號
這和Blog 重顯率中所說暗合。在這裡, V4L2_CAP_VIDEO_CAPTURE 說明裝置是個影象採集裝置,V4L2_CAP_STREAMING 說明是個Streaming裝置。
通常,攝像頭都支援以上兩個能力。
3.3:查詢當前捕獲格式:memset(&fmt, 0, sizeof(structv4l2_format));
fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
if (ioctl(fdUsbCam, VIDIOC_G_FMT, &fmt)< 0){
printf("get format failed\n");
return -1;
}
注意,此處,fmt是個in/out引數。
參見Kernel程式碼v4l2_ioctl.c中。此ioctl,它會首先判斷
fmt.type.
type型別和含義如下:V4L2_BUF_TYPE_VIDEO_CAPTURE :vid-cap
V4L2_BUF_TYPE_VIDEO_OVERLAY :vid-overlay
V4L2_BUF_TYPE_VIDEO_OUTPUT :vid-out
V4L2_BUF_TYPE_VBI_CAPTURE :vbi-cap
V4L2_BUF_TYPE_VBI_OUTPUT : vbi-out
V4L2_BUF_TYPE_SLICED_VBI_CAPTURE :sliced-vbi-cap
V4L2_BUF_TYPE_SLICED_VBI_OUTPUT :sliced-vbi-out
V4L2_BUF_TYPE_VIDEO_OUTPUT_OVERLAY : vid-out-overlay
咱們是使用Video Cam的。所以用V4L2_BUF_TYPE_VIDEO_CAPTUREstruct v4l2_format
{
enum v4l2_buf_type type;
union
{
struct v4l2_pix_format pix;
struct v4l2_window win;
struct v4l2_vbi_format vbi;
struct v4l2_sliced_vbi_format sliced;
__u8 raw_data[200];
} fmt;
};
我們得到的資訊在v4l2_pix_format中。
你可以看到,寬,高,畫素格式。
其中畫素格式包括:#define V4L2_PIX_FMT_RGB332 v4l2_fourcc('R','G','B','1')
#define V4L2_PIX_FMT_RGB555 v4l2_fourcc('R','G','B','O')
#define V4L2_PIX_FMT_RGB565 v4l2_fourcc('R','G','B','P')
#define V4L2_PIX_FMT_RGB555X v4l2_fourcc('R','G','B','Q')
#define V4L2_PIX_FMT_RGB565X v4l2_fourcc('R','G','B','R')
#define V4L2_PIX_FMT_BGR24 v4l2_fourcc('B','G','R','3')
#define V4L2_PIX_FMT_RGB24 v4l2_fourcc('R','G','B','3')
#define V4L2_PIX_FMT_BGR32 v4l2_fourcc('B','G','R','4')
#define V4L2_PIX_FMT_RGB32 v4l2_fourcc('R','G','B','4')
#define V4L2_PIX_FMT_GREY v4l2_fourcc('G','R','E','Y')
#define V4L2_PIX_FMT_YVU410 v4l2_fourcc('Y','V','U','9')
#define V4L2_PIX_FMT_YVU420 v4l2_fourcc('Y','V','1','2')
#define V4L2_PIX_FMT_YUYV v4l2_fourcc('Y','U','Y','V')
#define V4L2_PIX_FMT_UYVY v4l2_fourcc('U','Y','V','Y')
#define V4L2_PIX_FMT_YUV422P v4l2_fourcc('4','2','2','P')
#define V4L2_PIX_FMT_YUV411P v4l2_fourcc('4','1','1','P')
#define V4L2_PIX_FMT_Y41P v4l2_fourcc('Y','4','1','P')
#define V4L2_PIX_FMT_NV12 v4l2_fourcc('N','V','1','2')#define V4L2_PIX_FMT_NV21 v4l2_fourcc('N','V','2','1')
#define V4L2_PIX_FMT_YUV410 v4l2_fourcc('Y','U','V','9')#define V4L2_PIX_FMT_YUV420 v4l2_fourcc('Y','U','1','2')
#define V4L2_PIX_FMT_YYUV v4l2_fourcc('Y','Y','U','V')
#define V4L2_PIX_FMT_HI240 v4l2_fourcc('H','I','2','4')
#define V4L2_PIX_FMT_HM12 v4l2_fourcc('H','M','1','2')
#define V4L2_PIX_FMT_SBGGR8 v4l2_fourcc('B','A','8','1')
#define V4L2_PIX_FMT_MJPEG v4l2_fourcc('M','J','P','G')#define V4L2_PIX_FMT_JPEG v4l2_fourcc('J','P','E','G')
#define V4L2_PIX_FMT_DV v4l2_fourcc('d','v','s','d')
#define V4L2_PIX_FMT_MPEG v4l2_fourcc('M','P','E','G')
#define V4L2_PIX_FMT_WNVA v4l2_fourcc('W','N','V','A')#define V4L2_PIX_FMT_SN9C10X v4l2_fourcc('S','9','1','0')
#define V4L2_PIX_FMT_PWC1 v4l2_fourcc('P','W','C','1')
#define V4L2_PIX_FMT_PWC2 v4l2_fourcc('P','W','C','2')
#define V4L2_PIX_FMT_ET61X251 v4l2_fourcc('E','6','2','5')
fxxk,真TNND多。
請注意,此時取到的寬,高,畫素格式均正確。但不知為何,bytesperline卻為0。
3.4:設定當前捕獲格式fmt.fmt.pix.width = 640;
fmt.fmt.pix.height = 480;
fmt.fmt.pix.pixelformat=V4L2_PIX_FMT_YUYV;
rel = ioctl(fdUsbCam, VIDIOC_S_FMT, &fmt);
if (rel < 0)
{
printf("\nSet format failed\n");
return -1;
}
此時,再取當前捕獲格式,則一切正常。包括 bytesperline
3.5:讀取Stream 設定。
struct v4l2_streamparm *setfps;
setfps=(struct v4l2_streamparm *) calloc(1, sizeof(structv4l2_streamparm));
memset(setfps, 0, sizeof(struct v4l2_streamparm));
setfps->type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
rel = ioctl(fdUsbCam,VIDIOC_G_PARM, setfps);if(rel == 0)
{
printf("\n Frame rate: %u/%u\n",
setfps->parm.capture.timeperframe.denominator,
setfps->parm.capture.timeperframe.numerator
);
}
else
{
perror("Unable to read out current framerate");
return -1;
}
注意: ioctl(fdUsbCam, VIDIOC_G_PARM,setfps); 引數3也是i/o 引數。必須要首先其type.
struct v4l2_streamparm
{
enum v4l2_buf_type type;
union
{
struct v4l2_captureparm capture;
struct v4l2_outputparm output;
__u8 raw_data[200];
} parm;
};
type欄位描述的是在涉及的操作的型別。對於視訊捕獲裝置,應該為V4L2_BUF_TYPE_VIDEO_CAPTURE。對於輸出裝置應該為V4L2_BUF_TYPE_VIDEO_OUTPUT。它的值也可以是V4L2_BUF_TYPE_PRIVATE,在這種情況下,raw_data欄位用來傳遞一些私有的,不可移植的,甚至是不鼓勵的資料給核心。enum v4l2_buf_type {
V4L2_BUF_TYPE_VIDEO_CAPTURE = 1,
V4L2_BUF_TYPE_VIDEO_OUTPUT = 2,
V4L2_BUF_TYPE_VIDEO_OVERLAY = 3,
V4L2_BUF_TYPE_VBI_CAPTURE = 4,
V4L2_BUF_TYPE_VBI_OUTPUT = 5,V4L2_BUF_TYPE_SLICED_VBI_CAPTURE = 6,
V4L2_BUF_TYPE_SLICED_VBI_OUTPUT = 7,
V4L2_BUF_TYPE_PRIVATE = 0x80,
};
咱們當然選用V4L2_BUF_TYPE_VIDEO_CAPTURE
對於捕獲裝置而言,parm.capture欄位是要關注的內容,這個結構體如下:
struct v4l2_captureparm
{
__u32 capability;
__u32 capturemode;
structv4l2_fract timeperframe;
__u32 extendedmode;
__u32 readbuffers;
__u32 reserved[4];
};timeperframe欄位用於指定想要使用的幀頻率,它又是一個結構體:
struct v4l2_fract{
__u32 numerator;
__u32 denominator;
};
numerator和denominator所描述的係數給出的是成功的幀之間的時間間隔。
numerator 分子,denominator 分母。主要表達每次幀之間時間間隔。 numerator/denominator秒一幀。
3.6:設定Stream引數。(主要是採集幀數)
setfps->parm.capture.timeperframe.numerator=1;
setfps->parm.capture.timeperframe.denominator=60;
rel = ioctl(fdUsbCam,VIDIOC_S_PARM, setfps);
if(rel != 0)
{
printf("\nUnable to Set FPS");
return -1;
}
當然,setfps的其它專案,都是之前使用VIDIOC_G_PARM取得的。
3.7:建立一組緩衝區(buf)
struct v4l2_requestbuffers rb;
memset(&rb, 0, sizeof(structv4l2_requestbuffers));
rb.count = 3;
rb.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
rb.memory = V4L2_MEMORY_MMAP;
rel = ioctl(fdUsbCam, VIDIOC_REQBUFS,&rb);
if (rel < 0)
{
printf("Unable to allocate buffers: %d.\n",errno);
return -1;
}其中引數rb為:struct v4l2_requestbuffers:
struct v4l2_requestbuffers
{
__u32 count;
enum v4l2_buf_type type;
enum v4l2_memory memory;
__u32 reserved[2];
};
type 欄位描述的是完成的I/O操作的型別。通常它的值要麼是視訊獲得裝置的V4L2_BUF_TYPE_VIDEO_CAPTURE,要麼是輸出裝置的V4L2_BUF_TYPE_VIDEO_OUTPUTstruct v4l2_memory:
enum v4l2_memory {
V4L2_MEMORY_MMAP = 1,
V4L2_MEMORY_USERPTR = 2,
V4L2_MEMORY_OVERLAY = 3,
};想要使用記憶體映謝的緩衝區,它將會把memory欄位置為V4L2_MEMORY_MMAP,count置為它想要使用的緩衝區的數目。
順便看看USB TO Serail:
Device Drivers --->[*] USB support ---> <M> USB Serial Converter support ---> <M> USB Prolific 2303 Single Port SerialDriver
USB Prolific 2303 Single Port Serial Driver是指出支援pl2303晶片的USB 2serial.
pl2303.koUSB Serial Converter support是基礎driver. 對應usbserial.ko
注1:ioctl中常用的cmd.
VIDIOC_REQBUFS:分配記憶體
VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的資料快取轉換成實體地址
VIDIOC_QUERYCAP:查詢驅動功能
VIDIOC_ENUM_FMT:獲取當前驅動支援的視訊格式
VIDIOC_S_FMT:設定當前驅動的頻捕獲格式
VIDIOC_G_FMT:讀取當前驅動的頻捕獲格式
VIDIOC_TRY_FMT:驗證當前驅動的顯示格式
VIDIOC_CROPCAP:查詢驅動的修剪能力
VIDIOC_S_CROP:設定視訊訊號的邊框
VIDIOC_G_CROP:讀取視訊訊號的邊框
VIDIOC_QBUF:把資料從快取中讀取出來
VIDIOC_DQBUF:把資料放回快取佇列
VIDIOC_STREAMON:開始視訊顯示函式
VIDIOC_STREAMOFF:結束視訊顯示函式
VIDIOC_QUERYSTD:檢查當前視訊裝置支援的標準,例如PAL或NTSC。
VIDIOC_G_PARM :得到Stream資訊。如幀數等。
VIDIOC_S_PARM:設定Stream資訊。如幀數等。注2:
如何判斷某ioctl cmd所用引數型別:
例如:
ioctl-cmd: VIDIOC_QUERYCAP.
它的返回引數型別ioctl(fd, cmd, 引數)。
首先想到的是從kernel Sourcev4l2_ioctl.c中看。但這比較麻煩,又個簡單辦法:可以在video2dev.h中看到:
#define VIDIOC_QUERYCAP _IOR ('V', 0, struct v4l2_capability)
即使用cmd為 VIDIOC_QUERYCAP 時,引數為structv4l2_capabilityV4L2是V4L的升級版本,linux下視訊裝置程式提供了一套介面規範。
常用的結構體在核心目錄include/linux/videodev2.h中定義
struct v4l2_requestbuffers //申請幀緩衝,對應命令VIDIOC_REQBUFS
struct v4l2_capability //視訊裝置的功能,對應命令VIDIOC_QUERYCAP
struct v4l2_input //視訊輸入資訊,對應命令VIDIOC_ENUMINPUT
struct v4l2_standard //視訊的制式,比如PAL,NTSC,對應命令VIDIOC_ENUMSTD
struct v4l2_format //幀的格式,對應命令VIDIOC_G_FMT、VIDIOC_S_FMT等
struct v4l2_buffer //驅動中的一幀影象快取,對應命令VIDIOC_QUERYBUF
struct v4l2_crop //視訊訊號矩形邊框
v4l2_std_id //視訊制式
V4L2採用流水線的方式,操作更簡單直觀,基本遵循開啟視訊裝置、設定格式、處理資料、關閉裝置,更多的具體操作通過ioctl函式來實現。
1.開啟視訊裝置
在V4L2中,視訊裝置被看做一個檔案。使用open函式開啟這個裝置:
// 用非阻塞模式開啟攝像頭裝置
int cameraFd;
cameraFd = open("/dev/video0", O_RDWR | O_NONBLOCK, 0);
// 如果用阻塞模式開啟攝像頭裝置,上述程式碼變為:
//cameraFd = open("/dev/video0", O_RDWR, 0);
應用程式能夠使用阻塞模式或非阻塞模式開啟視訊裝置,如果使用非阻塞模式呼叫視訊裝置,即使尚未捕獲到資訊,驅動依舊會把快取(DQBUFF)裡的東西返回給應用程式。
2. 設定屬性及採集方式
開啟視訊裝置後,可以設定該視訊裝置的屬性,例如裁剪、縮放等。這一步是可選的。在Linux程式設計中,一般使用ioctl函式來對裝置的I/O通道進行管理:
int ioctl (int __fd, unsigned long int __request, .../*args*/) ;
在進行V4L2開發中,常用的命令標誌符如下(some are optional):
• VIDIOC_REQBUFS:分配記憶體
• VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的資料快取轉換成實體地址
• VIDIOC_QUERYCAP:查詢驅動功能
• VIDIOC_ENUM_FMT:獲取當前驅動支援的視訊格式
• VIDIOC_S_FMT:設定當前驅動的頻捕獲格式
• VIDIOC_G_FMT:讀取當前驅動的頻捕獲格式
• VIDIOC_TRY_FMT:驗證當前驅動的顯示格式
• VIDIOC_CROPCAP:查詢驅動的修剪能力
• VIDIOC_S_CROP:設定視訊訊號的邊框
• VIDIOC_G_CROP:讀取視訊訊號的邊框
• VIDIOC_QBUF:把資料從快取中讀取出來
• VIDIOC_DQBUF:把資料放回快取佇列
• VIDIOC_STREAMON:開始視訊顯示函式
• VIDIOC_STREAMOFF:結束視訊顯示函式
• VIDIOC_QUERYSTD:檢查當前視訊裝置支援的標準,例如PAL或NTSC。
2.1檢查當前視訊裝置支援的標準
在亞洲,一般使用PAL(720X576)制式的攝像頭,而歐洲一般使用NTSC(720X480),使用VIDIOC_QUERYSTD來檢測:
v4l2_std_id std;
do {
ret = ioctl(fd, VIDIOC_QUERYSTD, &std);
} while (ret == -1 && errno == EAGAIN);
switch (std) {
case V4L2_STD_NTSC:
//……
case V4L2_STD_PAL:
//……
}
2.2 設定視訊捕獲格式
當檢測完視訊裝置支援的標準後,還需要設定視訊捕獲格式,結構如下:
struct v4l2_format fmt;
memset ( &fmt, 0, sizeof(fmt) );
fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
fmt.fmt.pix.width = 720;
fmt.fmt.pix.height = 576;
fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;
if (ioctl(fd, VIDIOC_S_FMT, &fmt) == -1) {
return -1;
}
v4l2_format結構如下:
struct v4l2_format {
enum v4l2_buf_type type; //資料流型別,必須永遠是V4L2_BUF_TYPE_VIDEO_CAPTURE
union
{
struct v4l2_pix_format pix;
struct v4l2_window win;
struct v4l2_vbi_format vbi;
__u8 raw_data[200];
} fmt;
};
struct v4l2_pix_format {
__u32 width; // 寬,必須是16的倍數
__u32 height; // 高,必須是16的倍數
__u32 pixelformat; // 視訊資料儲存型別,例如是YUV4:2:2還是RGB
enum v4l2_field field;
__u32 bytesperline;
__u32 sizeimage;
enum v4l2_colorspace colorspace;
__u32 priv;
};
2.3 分配記憶體
接下來可以為視訊捕獲分配記憶體:
struct v4l2_requestbuffers req;
req.count = BUFFER_COUNT;
req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
req.memory = V4L2_MEMORY_MMAP;if (ioctl(fd, VIDIOC_REQBUFS, &req) == -1) {
return -1;
}v4l2_requestbuffers 結構如下:
struct v4l2_requestbuffers {
u32 count;//快取數量,也就是說在快取佇列裡保持多少張照片
enum v4l2_buf_type type; //資料流型別,必須永遠是V4L2_BUF_TYPE_VIDEO_CAPTURE
enum v4l2_memory memory;//V4L2_MEMORY_MMAP或V4L2_MEMORY_USERPTR
u32 reserved[2];
};
2.4 獲取並記錄快取的物理空間
使用VIDIOC_REQBUFS,我們獲取了req.count個快取,下一步通過呼叫VIDIOC_QUERYBUF命令來獲取這些快取的地址,然後使用mmap函式轉換成應用程式中的絕對地址,最後把這段快取放入快取佇列:
typedef struct VideoBuffer {
void *start;
size_t length;
} VideoBuffer;v4l2_buffer 結構如下:
struct v4l2_buffer {
__u32 index;
enum v4l2_buf_type type;
__u32 bytesused;
__u32 flags;
enum v4l2_field field;
struct timeval timestamp;
struct v4l2_timecode timecode;
__u32 sequence;
/* memory location */
enum v4l2_memory memory;
union {
__u32 offset;
unsigned long userptr;
} m;
__u32 length;
__u32 input;
__u32 reserved;
};
VideoBuffer* buffers = calloc( req.count, sizeof(*buffers) );
struct v4l2_buffer buf;for (numBufs = 0; numBufs < req.count; numBufs++)
{
memset( &buf, 0, sizeof(buf) );
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
buf.index = numBufs;
// 讀取快取
if (ioctl(fd, VIDIOC_QUERYBUF, &buf) == -1) {
return -1;
}buffers[numBufs].length = buf.length;
// 轉換成相對地址
buffers[numBufs].start = mmap(NULL, buf.length, PROT_READ | PROT_WRITE,
MAP_SHARED,fd, buf.m.offset);if (buffers[numBufs].start == MAP_FAILED) {
return -1;
}// 放入快取佇列
if (ioctl(fd, VIDIOC_QBUF, &buf) == -1) {
return -1;
}
}
2.5 視訊採集方式
作業系統一般把系統使用的記憶體劃分成使用者空間和核心空間,分別由應用程式管理和作業系統管理。應用程式可以直接訪問記憶體的地址,而核心空間存放的是供核心訪問的程式碼和資料,使用者不能直接訪問。v4l2捕獲的資料,最初是存放在核心空間的,這意味著使用者不能直接訪問該段記憶體,必須通過某些手段來轉換地址。
一共有三種視訊採集方式:使用read/write方式;記憶體對映方式和使用者指標模式。
read、write方式,在使用者空間和核心空間不斷拷貝資料,佔用了大量使用者記憶體空間,效率不高。
記憶體對映方式:把裝置裡的記憶體對映到應用程式中的記憶體控制元件,直接處理裝置記憶體,這是一種有效的方式。上面的mmap函式就是使用這種方式。
使用者指標模式:記憶體片段由應用程式自己分配。這點需要在v4l2_requestbuffers裡將memory欄位設定成V4L2_MEMORY_USERPTR。
2.6 處理採集資料
V4L2有一個數據快取,存放req.count數量的快取資料。資料快取採用FIFO的方式,當應用程式呼叫快取資料時,快取佇列將最先採集到的視訊資料快取送出,並重新採集一張視訊資料。這個過程需要用到兩個ioctl命令,VIDIOC_DQBUF和VIDIOC_QBUF:
struct v4l2_buffer buf;
memset(&buf,0,sizeof(buf));
buf.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory=V4L2_MEMORY_MMAP;
buf.index=0;
//讀取快取
if (ioctl(cameraFd, VIDIOC_DQBUF, &buf) == -1)
{
return -1;
}
//…………視訊處理演算法
//重新放入快取佇列
if (ioctl(cameraFd, VIDIOC_QBUF, &buf) == -1) {
return -1;
}
3. 關閉視訊裝置
使用close函式關閉一個視訊裝置
close(cameraFd)
如果使用mmap,最後還需要使用munmap方法。
下面是damo程式(經過實際驗證,修改了網上的例程的錯誤)
-----------------------------------------------------------------------------------------------------------
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <assert.h>
#include <getopt.h>
#include <fcntl.h>
#include <unistd.h>
#include <errno.h>
#include <malloc.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <sys/time.h>
#include <sys/mman.h>
#include <sys/ioctl.h>#include <asm/types.h>
#include <linux/videodev2.h>#define CAMERA_DEVICE "/dev/video0"
#define CAPTURE_FILE "frame.jpg"#define VIDEO_WIDTH 640
#define VIDEO_HEIGHT 480
#define VIDEO_FORMAT V4L2_PIX_FMT_YUYV
#define BUFFER_COUNT 4typedef struct VideoBuffer {
void *start;
size_t length;
} VideoBuffer;int main()
{
int i, ret;// 開啟裝置
int fd;
fd = open(CAMERA_DEVICE, O_RDWR, 0);
if (fd < 0) {
printf("Open %s failed\n", CAMERA_DEVICE);
return -1;
}// 獲取驅動資訊
struct v4l2_capability cap;
ret = ioctl(fd, VIDIOC_QUERYCAP, &cap);
if (ret < 0) {
printf("VIDIOC_QUERYCAP failed (%d)\n", ret);
return ret;
}
// Print capability infomations
printf("Capability Informations:\n");
printf(" driver: %s\n", cap.driver);
printf(" card: %s\n", cap.card);
printf(" bus_info: %s\n", cap.bus_info);
printf(" version: %08X\n", cap.version);
printf(" capabilities: %08X\n", cap.capabilities);// 設定視訊格式
struct v4l2_format fmt;
memset(&fmt, 0, sizeof(fmt));
fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
fmt.fmt.pix.width = VIDEO_WIDTH;
fmt.fmt.pix.height = VIDEO_HEIGHT;
fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;
fmt.fmt.pix.field = V4L2_FIELD_INTERLACED;
ret = ioctl(fd, VIDIOC_S_FMT, &fmt);
if (ret < 0) {
printf("VIDIOC_S_FMT failed (%d)\n", ret);
return ret;
}// 獲取視訊格式
ret = ioctl(fd, VIDIOC_G_FMT, &fmt);
if (ret < 0) {
printf("VIDIOC_G_FMT failed (%d)\n", ret);
return ret;
}
// Print Stream Format
printf("Stream Format Informations:\n");
printf(" type: %d\n", fmt.type);
printf(" width: %d\n", fmt.fmt.pix.width);
printf(" height: %d\n", fmt.fmt.pix.height);
char fmtstr[8];
memset(fmtstr, 0, 8);
memcpy(fmtstr, &fmt.fmt.pix.pixelformat, 4);
printf(" pixelformat: %s\n", fmtstr);
printf(" field: %d\n", fmt.fmt.pix.field);
printf(" bytesperline: %d\n", fmt.fmt.pix.bytesperline);
printf(" sizeimage: %d\n", fmt.fmt.pix.sizeimage);
printf(" colorspace: %d\n", fmt.fmt.pix.colorspace);
printf(" priv: %d\n", fmt.fmt.pix.priv);
printf(" raw_date: %s\n", fmt.fmt.raw_data);// 請求分配記憶體
struct v4l2_requestbuffers reqbuf;
reqbuf.count = BUFFER_COUNT;
reqbuf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
reqbuf.memory = V4L2_MEMORY_MMAP;
ret = ioctl(fd , VIDIOC_REQBUFS, &reqbuf);
if(ret < 0) {
printf("VIDIOC_REQBUFS failed (%d)\n", ret);
return ret;
}// 獲取空間
VideoBuffer* buffers = calloc( reqbuf.count, sizeof(*buffers) );
struct v4l2_buffer buf;for (i = 0; i < reqbuf.count; i++)
{
buf.index = i;
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
ret = ioctl(fd , VIDIOC_QUERYBUF, &buf);
if(ret < 0) {
printf("VIDIOC_QUERYBUF (%d) failed (%d)\n", i, ret);
return ret;
}// mmap buffer
framebuf[i].length = buf.length;
framebuf[i].start = (char *) mmap(0, buf.length, PROT_READ|PROT_WRITE, MAP_SHARED, fd, buf.m.offset);
if (framebuf[i].start == MAP_FAILED) {
printf("mmap (%d) failed: %s\n", i, strerror(errno));
return -1;
}
// Queen buffer
ret = ioctl(fd , VIDIOC_QBUF, &buf);
if (ret < 0) {
printf("VIDIOC_QBUF (%d) failed (%d)\n", i, ret);
return -1;
}printf("Frame buffer %d: address=0x%x, length=%d\n", i, (unsigned int)framebuf[i].start, framebuf[i].length);
}// 開始錄製
enum v4l2_buf_type type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
ret = ioctl(fd, VIDIOC_STREAMON, &type);
if (ret < 0) {
printf("VIDIOC_STREAMON failed (%d)\n", ret);
return ret;
}// Get frame
ret = ioctl(fd, VIDIOC_DQBUF, &buf);
if (ret < 0) {
printf("VIDIOC_DQBUF failed (%d)\n", ret);
return ret;
}// Process the frame
FILE *fp = fopen(CAPTURE_FILE, "wb");
if (fp < 0) {
printf("open frame data file failed\n");
return -1;
}
fwrite(framebuf[buf.index].start, 1, buf.length, fp);
fclose(fp);
printf("Capture one frame saved in %s\n", CAPTURE_FILE);// Re-queen buffer
ret = ioctl(fd, VIDIOC_QBUF, &buf);
if (ret < 0) {
printf("VIDIOC_QBUF failed (%d)\n", ret);
return ret;
}// Release the resource
for (i=0; i< 4; i++)
{
munmap(framebuf[i].start, framebuf[i].length);
}close(fd);
printf("Camera test Done.\n");
return 0;
}
-----------------------------------------------------------------------------------------------------------
附件:
void *mmap(void *start, size_t length, int prot, int flags, int fd, off_t offset);
int munmap(void *start, size_t length);
引數說明:
——start:對映區的開始地址。
——length:對映區的長度。
——prot:期望的記憶體保護標誌,不能與檔案的開啟模式衝突。是以下的某個值,可以通過or運算合理地組合在一起
—PROT_EXEC //頁內容可以被執行
—PROT_READ //頁內容可以被讀取
—PROT_WRITE //頁可以被寫入
—PROT_NONE //頁不可訪問
——flags:指定對映物件的型別,對映選項和對映頁是否可以共享。它的值可以是一個或者多個以下位的組合體
—MAP_FIXED //使用指定的對映起始地址,如果由start和len引數指定的記憶體區重疊於現存的對映空間,重疊部分將會被丟棄。如果指定的起始地址不可用,操作將會失敗。並且起始地址必須落在頁的邊界上。
—MAP_SHARED //與其它所有對映這個物件的程序共享對映空間。對共享區的寫入,相當於輸出到檔案。直到msync()或者munmap()被呼叫,檔案實際上不會被更新。
—MAP_PRIVATE //建立一個寫入時拷貝的私有對映。記憶體區域的寫入不會影響到原檔案。這個標誌和以上標誌是互斥的,只能使用其中一個。
—MAP_DENYWRITE //這個標誌被忽略。
—MAP_EXECUTABLE //同上
—MAP_NORESERVE //不要為這個對映保留交換空間。當交換空間被保留,對對映區修改的可能會得到保證。當交換空間不被保留,同時記憶體不足,對對映區的修改會引起段違例訊號。
—MAP_LOCKED //鎖定對映區的頁面,從而防止頁面被交換出記憶體。
—MAP_GROWSDOWN //用於堆疊,告訴核心VM系統,對映區可以向下擴充套件。
—MAP_ANONYMOUS //匿名對映,對映區不與任何檔案關聯。
—MAP_ANON //MAP_ANONYMOUS的別稱,不再被使用。
—MAP_FILE //相容標誌,被忽略。
—MAP_32BIT //將對映區放在程序地址空間的低2GB,MAP_FIXED指定時會被忽略。當前這個標誌只在x86-64平臺上得到支援。
—MAP_POPULATE //為檔案對映通過預讀的方式準備好頁表。隨後對對映區的訪問不會被頁違例阻塞。
—MAP_NONBLOCK //僅和MAP_POPULATE一起使用時才有意義。不執行預讀,只為已存在於記憶體中的頁面建立頁表入口。
——fd:有效的檔案描述詞。如果MAP_ANONYMOUS被設定,為了相容問題,其值應為-1。
——offset:被對映物件內容的起點。
返回值:
成功執行時,mmap()返回被對映區的指標,munmap()返回0。
失敗時,mmap()返回MAP_FAILED[其值為(void *)-1],munmap返回-1。errno被設為以下的某個值。