ffmpeg處理RTMP流媒體的命令和發送流媒體的命令(UDP,RTP,RTMP)


將文件當做直播送至live
ffmpeg -re -i localFile.mp4 -c copy -f flv rtmp://server/live/streamName  
 
re限制輸出速率,按照幀率輸出
 
將直播媒體保存至本地文件
ffmpeg -i rtmp://server/live/streamName -c copy dump.flv  
 
將其中一個直播流,視頻改用h264壓縮,音頻不變,送至另外一個直播服務流
ffmpeg -i rtmp://server/live/originalStream -c:a copy -c:v libx264 -vpre slow -f flv rtmp://server/live/h264Stream  
 
將其中一個直播流,視頻不變,音頻改用faac壓縮,送至另外一個直播服務流
ffmpeg -i rtmp://server/live/originalStream -acodec libfaac -ar 44100 -ab 48k -vcodec copy -f flv rtmp://server/live/h264_AAC_Stream
 
將其中一個直播流,視頻改用h264壓縮,音頻改用faac壓縮,送至另外一個直播服務流
 
ffmpeg -i rtmp://server/live/originalStream -c:a libfaac -ar 44100 -ab 48k -c:v libx264 -vpre slow -vpre baseline -f flv rtmp://server/live/h264Stream  
 
將一個高清流,復制為幾個不同視頻清晰度的流重新發布,其中音頻不變
ffmpeg -re -i rtmp://server/live/high_FMLE_stream -acodec copy -vcodec x264lib -s 640×360 -b 500k -vpre medium -vpre baseline rtmp://server/live/baseline_500k -acodec copy -vcodec x264lib -s 480×272 -b 300k -vpre medium -vpre baseline rtmp://server/live/baseline_300k -acodec copy -vcodec x264lib -s 320×200 -b 150k -vpre medium -vpre baseline rtmp://server/live/baseline_150k -acodec libfaac -vn -ab 48k rtmp://server/live/audio_only_AAC_48k  
 
功能一樣,只是采用-x264opts選項
ffmpeg -re -i rtmp://server/live/high_FMLE_stream -c:a copy -c:v x264lib -s 640×360 -x264opts bitrate=500:profile=baseline:preset=slow rtmp://server/live/baseline_500k -c:a copy -c:v x264lib -s 480×272 -x264opts bitrate=300:profile=baseline:preset=slow rtmp://server/live/baseline_300k -c:a copy -c:v x264lib -s 320×200 -x264opts bitrate=150:profile=baseline:preset=slow rtmp://server/live/baseline_150k -c:a libfaac -vn -b:a 48k rtmp://server/live/audio_only_AAC_48k 
 
將當前攝像頭及音頻通過DSSHOW采集,視頻h264、音頻faac壓縮后發布
ffmpeg -r 25 -f dshow -s 640×480 -i video=”video source name”:audio=”audio source name” -vcodec libx264 -b 600k -vpre slow -acodec libfaac -ab 128k -f flv rtmp://server/application/stream_name  
 
將一個JPG圖片經過h264壓縮循環輸出為mp4視頻
ffmpeg -i INPUT.jpg -an -vcodec libx264 -coder 1 -flags +loop -cmp +chroma -subq 10 -qcomp 0.6 -qmin 10 -qmax 51 -qdiff 4 -flags2 +dct8x8 -trellis 2 -partitions +parti8x8+parti4x4 -crf 24 -threads 0 -r 25 -g 25 -y OUTPUT.mp4 
 
將普通流視頻改用h264壓縮,音頻不變,送至高清流服務(新版本FMS live=1)
ffmpeg -i rtmp://server/live/originalStream -c:a copy -c:v libx264 -vpre slow -f flv “rtmp://server/live/h264Stream live=1″  
 
 
 
 
 
 
發送流媒體的命令(UDP,RTP,RTMP)
1.      UDP
1.1. 發送H.264裸流至組播地址
注:組播地址指的范圍是224.0.0.0—239.255.255.255
下面命令實現了發送H.264裸流“chunwan.h264”至地址udp://233.233.233.223:6666
 
  1. ffmpeg -re -i chunwan.h264 -vcodec copy -f h264 udp://233.233.233.223:6666  
注1:-re一定要加,代表按照幀率發送,否則ffmpeg會一股腦地按最高的效率發送數據。
注2:-vcodec copy要加,否則ffmpeg會重新編碼輸入的H.264裸流。
1.2. 播放承載H.264裸流的UDP
 
  1. ffplay -f h264 udp://233.233.233.223:6666  
注:需要使用-f說明數據類型是H.264
播放的時候可以加一些參數,比如-max_delay,下面命令將-max_delay設置為100ms:
 
  1. ffplay -max_delay 100000 -f h264 udp://233.233.233.223:6666  
1.3. 發送MPEG2裸流至組播地址
下面的命令實現了讀取本地攝像頭的數據,編碼為MPEG2,發送至地址udp://233.233.233.223:6666。
 
  1. ffmpeg -re -i chunwan.h264 -vcodec mpeg2video -f mpeg2video udp://233.233.233.223:6666  
1.4.  播放MPEG2裸流
指定-vcodec為mpeg2video即可。
 
  1. ffplay -vcodec mpeg2video udp://233.233.233.223:6666  
2.      RTP
2.1. 發送H.264裸流至組播地址。
下面命令實現了發送H.264裸流“chunwan.h264”至地址rtp://233.233.233.223:6666
 
  1. ffmpeg -re -i chunwan.h264 -vcodec copy -f rtp rtp://233.233.233.223:6666>test.sdp  
注1:-re一定要加,代表按照幀率發送,否則ffmpeg會一股腦地按最高的效率發送數據。
注2:-vcodec copy要加,否則ffmpeg會重新編碼輸入的H.264裸流。
注3:最右邊的“>test.sdp”用於將ffmpeg的輸出信息存儲下來形成一個sdp文件。該文件用於RTP的接收。當不加“>test.sdp”的時候,ffmpeg會直接把sdp信息輸出到控制台。將該信息復制出來保存成一個后綴是.sdp文本文件,也是可以用來接收該RTP流的。加上“>test.sdp”后,可以直接把這些sdp信息保存成文本。
 
2.2. 播放承載H.264裸流的RTP。
 
  1. ffplay test.sdp  
3.      RTMP
3.1. 發送H.264裸流至RTMP服務器( FlashMedia Server ,Red5等)
發送H.264裸流“chunwan.h264”至主機為localhost,Application為oflaDemo,Path為livestream的RTMP URL。
 
  1. ffmpeg -re -i chunwan.h264 -vcodec copy -f flv rtmp://localhost/oflaDemo/livestream  

rtmp://10.50.8.10/socketTest/streamName
 
3.2. 播放RTMP
 
  1. ffplay “rtmp://localhost/oflaDemo/livestream live=1”  
注:ffplay播放的RTMP URL最好使用雙引號括起來,並在后面添加live=1參數,代表實時流。實際上這個參數是傳給了ffmpeg的libRTMP的。
 
 
4.      測延時
4.1.測延時
測延時有一種方式,即一路播放發送端視頻,另一路播放流媒體接收下來的流。播放發送端的流有2種方式:FFmpeg和FFplay。
通過FFplay播放是一種眾所周知的方法,例如:
 
  1. ffplay -f dshow -i video="Integrated Camera"  
即可播放本地名稱為“Integrated Camera”的攝像頭。
此外通過FFmpeg也可以進行播放,通過指定參數“-f sdl”即可。例如:
 
  1. ffmpeg -re -i chunwan.h264 -pix_fmt yuv420p –f sdl xxxx.yuv -vcodec copy -f flv rtmp://localhost/oflaDemo/livestream  
就可以一邊通過SDL播放視頻,一邊發送視頻流至RTMP服務器。
注1:sdl后面指定的xxxx.yuv並不會輸出出來。
注2:FFmpeg本身是可以指定多個輸出的。本命令相當於指定了兩個輸出。
 
 
 
TODO:
1,循環推流
FOR /L %% IN (0) DO
 
循環播放文件示例,使用的是 concat 特性.
 
ffmpeg -re -f concat -i playlist.txt \
-vcodec libx264 -preset veryfast -maxrate 500k -bufsize 500k \
-vf "format=yuv420p:scale=720:-1" -g 48 -acodec libmp3lame -b:a 96k -ar 44100 \
-f flv "rtmp://send3.douyutv.com/live/209282rezHd16aNm?wsSecret=f759db6daa4137c184e2f16125d8af5d&wsTime=54dd5819"
 
 
golf_680_640x360.mp4:loop=0
OR Add
-stream_loop -1
 
 
fmpeg -f lavfi -re -i movie=golf_680_640x360.mp4:loop=0 -acodec libfaac -b:a 64k -pix_fmt yuv420p -vcodec libx264 -x264opts level=41 -r 25 -profile:v baseline -b:v 1500k -maxrate 2000k -force_key_frames 50 -s 640×360 -map 0 -flags -global_header -f segment -segment_list index_1500.m3u8 -segment_time 10 -segment_format mpeg_ts -segment_list_type m3u8 segment%05d.ts
 
ffmpeg -threads 2 -re -fflags +genpts -stream_loop -1 -i $F \
-s 640x360 -ac 2 -f flv -vcodec libx264 -profile:v baseline -b:v 600k -maxrate 600k -bufsize 600k -r 24 -ar 44100 -g 48 -c:a libfdk_aac -b:a 64k "rtmp://publish.live.metacdn.com/2050C7/dfsdfsd/lowquality_664?hello&adbe-live-event=lowquality_" \
-s 1920x1080 -ac 2 -f flv -vcodec libx264 -profile:v baseline -b:v 2000k -maxrate 2000k -bufsize 2000k -r 24 -ar 44100 -g 48 -c:a libfdk_aac -b:a 64k "rtmp://publish.live.metacdn.com/2050C7/dfsdfsd/highquality_2064?mate&adbe-live-event=highquality_"
 
 
參考
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM