基於vlc進行攝像頭推流的細節
Stream with DirectShow (Windows) 基於DirectShow的流(Windows)
Install your peripheral drivers
You need to install your peripherals under Windows with the appropriate drivers. Nothing else is necessary.
安裝您的外圍驅動程式
你需要給Windows下的外設安裝適當的驅動程式。沒有其他必要的事情。【注:遵循UVC的裝置則無需安裝驅動】
Stream unicast/multicast with VLC in command line
使用命令列基於vlc進行流單播/多播
% C:\Program Files\VideoLAN\VLC\vlc.exe -I rc --ttl 12 dshow:// vdev="VGA USB Camera" adev="USB Camera" size="640x480" --sout=#rtp{mux=ts,dst=239.255.42.12,port=5004}
Note: You either need to provide the full path to the vlc.exe executable or add its location to the Windows Path variable.
注意:你要麼提供vlc.exe的全路徑,要麼將其所在位置新增到windows的path環境變數中。
- -I rc is to activate the remote control interface (MS/DOS console) 啟用遠端控制介面(MS/ DOS控制檯)
- 12 is the value of the TTL (Time To Live) of your IP packets (which means that the stream will be able to cross 11 routers),
你的IP資料包的TTL(生存時間)值(設為12,就意味著流將能夠跨越11臺路由器), - vdev="VGA USB Camera" is the name of the video peripheral that DirectShow will use (this is only an exemple),
DirectShow將使用的視訊外設的名稱(這只是一個例子), - adev="USB Camera" is the name of the audio peripheral, 音訊外設的名稱
- size="640x480" is the resolution (you can also put the standard size like subqcif (128x96), qsif (160x120), qcif
(176x144), sif (320x240), cif (352x288) or vga (640x480)).
解析度(你也可以設定標準尺寸,如subqcif(128 x96),qsif(160 x120),qcif (176 x144),sif(320 x240),cif(352 x288)或vga(640 x480))。
- 239.255.42.12 is either:
- the IP address of the machine you want to unicast to; 單播的IP地址
- or the DNS name the machine you want to unicast to; 單播的DNS名稱
- or a multicast IP address. 多播的IP地址
Stream to file(s) with VLC in command line
% C:\Path\To\vlc.exe -I rc dshow:// :dshow-vdev="Osprey-210 Video Device 1" :dshow-adev="Unbalanced 1 (Osprey-2X0)" :dshow-caching=200 --sout="#duplicate{dst='transcode{vcodec=h264,vb=1260,fps=24,scale=1,width=640,height=480,acodec=mp4a,ab=96,channels=2,samplerate=44100}:std{access=file,mux=mp4,dst=C:\\Path\\To\\File-1.mp4}',dst='transcode{vcodec=h264,vb=560,fps=24,scale=1,width=427,height=320,acodec=mp4a,ab=96,channels=2,samplerate=44100}:std{access=file,mux=mp4,dst=C:\\Path\\To\\File-2.mp4}'}"
- -I rc is to activate the remote control interface (MS/DOS console)
- dshow://... configures your input capture card / settings
- #duplicate{} multiple output configurations
- transcode{} video/audio codec settings 視訊/音訊編解碼設定
- std{} output/muxer settings
https://wiki.videolan.org/Knowledge_Base
https://wiki.videolan.org/Documentation:Play_HowTo
相關推薦
基於vlc進行攝像頭推流的細節
Stream with DirectShow (Windows) 基於DirectShow的流(Windows) Install your peripheral drivers You need to install your peripherals under Wi
使用vlc進行攝像頭捕獲、RTSP串流、播放
1. 下載vlc,下載連結:http://download.videolan.org/pub/videolan/vlc/ 我選擇下載的是http://download.videolan.org/pub/videolan/vlc/2.2.4/win32/ 的vlc-2.2
Android 音視頻深入 十五 FFmpeg 實現基於Rtmp協議的推流(附源碼下載)
音視頻 FFmpeg Rtmp 推流 源碼地址https://github.com/979451341/Rtmp 1.配置RTMP服務器 這個我不多說貼兩個博客分別是在mac和windows環境上的,大家跟著弄MAC搭建RTMP服務器https://www.jianshu.com/p/6fce
一個直播例子:快速整合iOS基於RTMP的視訊推流
效果圖 iTools有點卡, 但是推到伺服器倒是很快的. 推流 前言 這篇blog是iOS視訊直播初窺:<喵播APP>的一個補充. 因為之前傳到github上的專案中沒有整合視訊的推流.有很多朋友簡信和微博上問我推流這部分怎麼實現的. 所以, 我重新集成了RTMP的推流, 合併到了
基於LFLive實現rtmp推流到本地nginx伺服器
基於之前搭建的nginx + rtmp伺服器,現在結合LFLivekit,編碼獲取攝像頭視屏,麥克風音訊編碼推流 首先先將需要準備的東西下載下來整合到你的工程中去 在github上下載LFLivekit整合到你的工程中去 需要在工程中新增相應的frame
iOS:基於RTMP的視訊推流
iOS基於RTMP的視訊推流 一、基本介紹 iOS直播一出世,立馬火熱的不行,各種直播平臺如雨後春筍,正因為如此,也同樣帶動了直播的技術快速發展,在IT界精通直播技術的猴子可是很值錢的。直播技術涉及的知識面很廣,最主要的大概就是這幾個:軟硬解碼.h264、美顏處理、推流RTMP、拉流播放、視訊錄製、傳送彈幕
Docker(六)安裝Red5進行rtmp推流
red5 detail 啟動 推流 .net tail style 安裝 dai 1、pull鏡像 docker pull mondain/red5 2、啟動原版red5 docker run --name red5 -d -p 5080:5080 -p 1935:19
基於GSTREAMER伺服器RTSP推流
一、GSTREAMER、伺服器環境搭建 現在GSTREAMER已經更新到了1.0以上了,0.1版本有的外掛也不能用了,雖然網上很多資料有介紹使用原始碼編譯安裝GSTREAMER環境方法,但是很多時候都會缺少很多外掛,所以這邊我建議使用apt-get安裝,安裝方法地址:h
使用 ffmpeg 進行網路推流:拉流->解封裝->解碼->處理原始資料(音訊、視訊)->編碼->編碼->推流
簡要說明: 1、可拉流:rtmp、rtsp、http 2、可推流: #include "stdafx.h" extern "C" { #include "libavcodec/avcodec.h" #include "libavformat/avformat.h" #
Android中直播視訊技術探究之---採集攝像頭Camera視訊源資料進行推流(採用金山雲SDK)
一、前言在之前已經詳細介紹了Android中的一種視訊資料來源:Camera,不瞭解的同學可以點選進入:Android中Camera使用詳解 ,在這篇文章中我們介紹瞭如何採集攝像頭的每一幀資料,然後進行
javaCV開發詳解之2:推流器實現,推本地攝像頭視訊到流媒體伺服器以及攝像頭錄製視訊功能實現(基於javaCV-FFMPEG、javaCV-openCV)
javaCV系列文章: 補充篇: 歡迎大家積極開心的加入討論群 javacpp-ffmpeg: 前言: 本章將在上一章的基礎上,增加視訊推流到流媒體伺服器和視訊錄製的功能; 功能:實現邊播放邊錄製/推流,停止預覽即停止錄製/推流 提示:
基於FFmpeg的攝像頭直播(推流)
本文實現: 讀取PC攝像頭視訊資料並以RTMP協議傳送為直播流. 示例包含 1. FFmpeg的libavdevice的使用 2. 視訊編碼, 解碼, 推流的基本流程 要使用libavdevice的相關函式, 首先需要註冊相關元件 avdevice_
vlc命令行: 轉碼 流化 推流
dom 文件 control 字幕 ica png 6.0 app 全部 vlc命令行: 轉碼 流化 推流 寫在命令行之前的話: VLC不僅僅可以通過界面進行播放,轉碼,流化,也可以通過命令行進行播放,轉碼和流化。還可以利用裏面的SDK進行二
用VLC讀取攝像頭產生RTSP流,DSS主動取流轉發(一)
sdp nco con alt 分享 pad 流轉 publish enc 用VLC讀取攝像頭產生RTSP流,DSS主動取流轉發(一) 攝像機地址是192.1.101.51,VLC運行在192.1.101.77上,DSS服務器架設在192.1.101.
Android 音視頻深入 十六 FFmpeg 推流手機攝像頭,實現直播 (附源碼下載)
音視頻 FFmpeg RTMP 直播 Android 源碼地址https://github.com/979451341/RtmpCamera/tree/master 配置RMTP服務器,雖然之前說了,這裏就直接粘貼過來吧 1.配置RTMP服務器 這個我不多說貼兩個博客分別是在mac和win
Linux系統配置nginx-rtmp(docker)OBS推流 VLC拉流
centos7配置nginx-rtmp (以下分享配置的前提是:用docker-ce版本不是docker-io) 這裡我直接使用 tiangolo/nginx-rtmp 來搭建 rtmp 伺服器。 sudo docker pull tiangolo/nginx-rtmp
基於c++實現RTSP/RTMP推流元件PushStream簡介
技術在於交流、溝通,轉載請註明出處並保持作品的完整性。 原文:https://blog.csdn.net/hiwubihe/article/details/84639975 [本系列相關文章] 本篇介紹一個基於C++開發的RTSP/RTMP推流元件Pus
android平臺下基於ffmpeg採集Camera資料編碼成H.264推流到RTMP伺服器
音視訊實踐學習 android全平臺編譯ffmpeg以及x264與fdk-aac實踐 ubuntu下使用nginx和nginx-rtmp-module配置直播推流伺服器 android全平臺編譯ffmpeg合併為單個庫實踐 android-studio使用c
FFmpeg命令:幾種常見場景下的FFmpeg命令(攝像頭採集推流,桌面錄製推流、轉流,拉流等等)
前提: 再者,推流你得有個流媒體服務,個人測試用小水管:rtmp://eguid.cc:1935/rtmp/test(小水管,請儘量錯開時間使用,另切記推流視訊位元速率不要太高,避免佔用太多頻寬)
【GStreamer學習】基於NVIDIA TX系列板卡的硬體解碼及視訊推流
以NVIDIA TX1為例硬解碼就是利用硬體晶片來解碼的,TX1有單獨的解碼模組,NVDEC. 軟解碼是用軟體程式來解碼,比較佔用CPU資源 檢視cpu gpu 以及編解碼模組的使用: sudo ./tegrastats 1 Gstreamer概述 Gstreamer是一個li