㈠ android 如何播放rtsp://110.80.31.70:6000/channe1
可以用webView,載入HTML,通過video來播放。
一、需要在AndroidManifest.xml文件中聲明需要使用HardwareAccelerate, 可以細化到Activity級別,如果不需要的View可以聲明不要用加速,但是需要在代碼中做
具體如下:
1如果要聲明整個應用都要加速:< application ... android:hardwareAccelerated ="true">
2.如果要在Activity中聲明,則:
<activity ... android:hardwareAccelerated="true" >
Window, getWindow.setFlags( WindowManager.LayoutParams.FLAG_HARDWARE_ACCELERATED,WindowManager.LayoutParams.FLAG_HARDWARE_ACCELERATED);
3.如果application或者activity都申明了要硬體加速,但是為了某些原因(比如省電?),一些View不需要硬體加速的話, view.setLayerType(View.LAYER_TYPE_SOFTWARE, null);
二、 需要在AndroidManifest.xml文件中用上<use-sdk></use-sdk>標簽,而且如果是空的還不行,必須寫上targetSDK或者minSDK,但是我試驗過,不管寫版本是多少都沒有關系。理論上說,Android應該是從3.0( API Level 11)開始可以對2D渲染加速,但是我把targetSDK設置為5都可以使用的,但是這個標簽不寫還不行。
一般來說,上面的操作做了,就可以使用video標簽播放視屏了,如果要支持全屏,還需要做一點操作: 給webview一個WebChromeClient對象,這個WebChromeClient對象需要實現onShowCustomView和onHideCustomView方法
㈡ websocket支持rtsp嗎
後台寫Socket與..?-0-#可以用Socket通信啊,其內容可通過js獲.,裡面可直接和SocketServer通信.,web界面就是獲取通信信息。頁面放Applet. 僅負責和SS通信。
㈢ 如何開發能夠鏈接rtsp固定地址,從網路上獲得這種格式資源的播放器,幫忙說下大致思路就好
關鍵是你連什麼伺服器,微軟的WMS 還是其他的。如果是微軟的live555,也能連,但是支持的功能有限。VLC 就可以用live555 的連rtsp。
㈣ 請問手機網頁如何播放rtsp
這個網站完美的解決了你的問題,前提是你會寫代碼
發現自己太年輕so為了不把大家帶進坑,更新回答
web伺服器轉碼 hls、rtmp、flash(iOS不支持)
android本地解碼 各種sdk開發包
㈤ 網頁中如何嵌入rtsp協議的流媒體視頻
流媒體也沒什麼神秘的,它並不是一種網頁製作技術,用的也是普通 的網頁,但是裡面插入了播放器,流媒體用的協議卻不是http協議,而是rtsp協議,在Windows下它是用Server 2000/2003架設的,在Linux下不知是怎麼弄出來的.
還不錯,希望你採納。
㈥ android怎麼播放rtsp實時網路串流代碼
android播放rtsp實時網路串流核心代碼如下:
import android.app.Activity;
import android.net.Uri;
import android.os.Bundle;
import android.view.View;
import android.widget.Button;
import android.widget.EditText;
import android.widget.VideoView;
public class rtspActivity extends Activity {
/** Called when the activity is first created. */
Button playButton ;
VideoView videoView ;
EditText rtspUrl ;
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.main);
rtspUrl = (EditText)this.findViewById(R.id.url);
playButton = (Button)this.findViewById(R.id.start_play); playButton.setOnClickListener(new Button.OnClickListener(){
public void onClick(View v) {
PlayRtspStream(rtspUrl.getEditableText().toString()); } });
videoView = (VideoView)this.findViewById(R.id.rtsp_player); }
//play rtsp stream
private void PlayRtspStream(String rtspUrl){
videoView.setVideoURI(Uri.parse(rtspUrl));
videoView.requestFocus();
videoView.start();
}
}
㈦ rtsp點播拖動怎麼實現
HTTP協議下實現FLV的播放其實並不復雜,當初實現的原理是使用了flowPlayer插件實現的,效果還不錯。但仍有兩大問題影響著客戶的訪問情緒:
1.預載入時頁面卡死,似乎沒有邊下邊播。
2.偶爾邊下邊播,卻無法拖動時間軸至未下載的部分。相信很多人也遇到該問題。
一度想採用專門的媒體伺服器如Adobe的FMS去實現該功能,後多方查找資料,發現採用媒體伺服器成本較高,且效率並不是很好,各大視頻網站也未採用該方式。而實現HTTP協議下播放flv並可拖動時間軸並非沒有可能,關鍵在於以下幾點:
Flv視頻文件包含metadata信息,大多數轉碼工具生成的FLV不包含該信息。可用工具增加(flvtool2,yamdi[速度很快,效率高])。
Web端播放器需支持拖動時間軸時發送請求的連接中帶有位元組參數,或時間參數。
伺服器端實現對flv文件的讀取和流式輸出。
一、給FLV文件加入metadata信息
flvtool2和yamdi都可以實現該功能,但yamdi工具的效率要高出很多,400M左右的FLV處理時間大概2分鍾,推薦使用。實現方式是在cmd命令窗口下執行如下命令:
yamdi -i 源文件名 -o 新文件名
二、flowPlayer的使用與配置
flowPlayer是一款web端播放flv等視頻的利器,功能比較強大,採用的版本3.2.2,可支持多種插件,此次實現可拖動時間軸的功能也是使用了它的一款插件, 該插件名為:flowplayer.pseudostreaming-byterange-3.2.9.swf,採用的版本是3.2.9,3.2.10不可作為flowPlayer3.2.2的插件使用, 測試未有圖像顯示。頁面中的編寫方式是,紅色標出的是重要部分:
㈧ 怎樣播放rtsp網址的文件啊
rtsp是real media格式的廣播網址格式,可以使用原生的real player打開。近年來很多其它的播放器軟體,如暴風影音,騰訊視頻和potplayer等也都支持打開這種鏈接。
在文件菜單里找到「打開網址」或者「打開rtsp網址」就可以了。
㈨ 如果想開發一個像豆瓣電台的在線音樂電台(web版),需要怎麼做
一、前言
隨著越來越多的朋友開始選擇ADSL、Cable Modem或FTTB+ LAN作為首要的上網方式,寬頻時代即將到來,這使我們「寬頻 KTV、影音聊天室、線上電影院、遠程教育」的夢想即將成為現實,而與其密切相關的「流媒體(Streaming Media)」也成了許多人談論的熱門話題,因為「流媒體」正是實現這些寬頻應用的技術動力。
寬頻時代的到來還使得網民們不再滿足於僅僅作為一項服務的受眾,他們需要更大規模的交流,從中體現個體的價值,因此,許多朋友開始用自己的計算機,搭建網路廣播和點播站點。他們充滿著滿腔的熱情,但不可否認的是,中國網民先天技術上的不足,讓他們在建設這樣的站點時遇到重重險阻,以至於放棄。如何將這種熱情在技術的引導下成為動力,這正是我們家用電腦所要做的,所以,在今天,在這里,我就將給大家介紹如何打造屬於自己的流媒體伺服器。
不過,在開始正式的流媒體伺服器架設之前,請讓我們先了解一下流媒體伺服器的基礎知識。
二、流媒體基礎知識
什麼是流媒體?
目前,在網路上傳輸音/視頻等多媒體信息有兩種解決方案,即http或ftp下載以及流式傳輸。
http或ftp下載使用標準的http和ftp協議,但由於多媒體信息個頭巨大,下載一個多媒體文件一般需要幾分鍾或幾小時的時間,這就造成為了看一個並不知道內容的視頻,首先需要耗費可能比整個視頻都要長的時間來完成下載。這些被下載的文件還必須在下載前製作完成,放在網路伺服器上,這樣造成的直接後果就是:網路帶寬不斷提高,人們下載的等待時間越來越少,但最終還是不能觀看網上現場直播。
流式傳輸時,聲音、影像或動畫等多媒體信息由流媒體伺服器向用戶計算機連續、實時傳送,它首先在使用者端的電腦上創建一個緩沖區,於播放前預先下載一段資料作為緩沖,用戶不必等到整個文件全部下載完畢,而只需經過幾秒或十數秒的啟動延時即可進行觀看。當多媒體信息在客戶機上播放時,文件的剩餘部分將在後台從伺服器內繼續下載。如果網路連接速度小於播放的多媒體信息需要的速度時,播放程序就會取用先前建立的一小段緩沖區內的資料,避免播放的中斷,使得播放品質得以維持。
流式傳輸除了能夠發送已經製作完成的文件外,還可以通過採集伺服器實時採集現場音視頻,推送到流媒體伺服器端,實時提供給用戶。因此,流媒體除了能夠更好的承擔如下載一樣的多媒體點播服務外,更能夠應用在現場直播、電視轉播、突發事件報道等多種對實時性傳輸要求較高的領域。
有關流媒體的廠商
流媒體的市場巨大,世界上許多優秀的廠商都加入此行列,現階段更是系統集成商競爭的風水寶地。而在通用市場上,競爭的公司主要有三個:Microsoft、RealNetworks、Apple,而相應的產品就是:Windows Media、Real Media、QuickTime。而近來,以開發Winamp著名的Nullsoft公司也在自己的MP3伺服器中加入了視頻支持,欲在流媒體市場分一杯羹。
由於Apple的伺服器和編輯軟體一般都以Mac為操作平台,Nullsoft的流媒體伺服器屬於新生不成熟事務,所以今天在這里我主要給大家介紹一下Microsoft和RealNetworks的產品。
流媒體的傳輸協議
大家在觀看網上電影或者電視時,一般都會注意到這些文件的連接都不是用http或者ftp開頭,而是一些rtsp或者mms開頭的東西,為什麼是這樣呢?實際上,這些和http和ftp一樣,都是數據在網路上傳輸的協議,只是它們是專門用來傳輸流式媒體的協議而已。下面,讓我們來看一下現在使用的主要的流媒體協議:
1. RTSP(Real Time Streaming Protocol),實時流媒體協議,它是由RealNetworks和Netscape共同提出的,現在用於RealNetworks的Real Media產品中;
2. PNM(Progressive Networks Audio),這也是Real專用的實時傳輸協議,它一般採用UDP協議,並佔用7070埠,但當你的伺服器在防火牆內且7070埠被擋,且你的伺服器把SmartingNetwork設為真時,則採用http協議,並佔用默認的80埠;
3. MMS(Microsoft Media Server protocol),這是微軟的流媒體伺服器協議,MMS 是連接 Windows Media 單播服務的默認方法。
介紹了主要的三個,可能您還會問,Apple的QuickTime使用哪種協議呢?在多數情況下,QuickTime使用http協議,但實際上它也由標準的流媒體傳輸協議,這就是標准RTSP協議,而Real公司使用的RTSP是自己經過開發的。
在流媒體傳輸中,標準的協議就是RTP(Real time Transport Protocol,實時傳輸協議)、RTCP(Real-time Transport Control Protocol,實時傳輸控制協議)、RTSP(Real Time Streaming Protocol,實時流媒體協議)和RSVP(Resource Reserve Protocol, 資源預訂協議),廠商們的產品都是在這些協議的基礎上進行研究與開發,限於篇幅,在這里我們就不再深入討論了。
流媒體文件和發布格式
有了實時的傳輸協議,我們應該還能夠想到,只有較小的文件才適合網路實時傳輸,那麼,流媒體文件採用了什麼樣的壓縮演算法呢?
而使用Windows操作系統的朋友可以看到,我們觀看網上流節目時,它們的後綴名一般是rm、asf、wmv等,這些就是流媒體的格式。流媒體文件格式經過特殊編碼,不僅採用較高的壓縮比,還加入了許多控制信息,使其適合在網路上邊下載邊播放,而不是等到下載完整個文件才能播放。
常見的流媒體格式大致有以下幾種:
流媒體文件格式擴展(Video/Audio) 媒體類型與名稱
asf Advanced Streaming format. (Microsoft).
rm Real Video/Audio 文件 (Progressive Networks).
ra Real Audio 文件 (Progressive Networks).
rp Real Pix 文件 (Progressive Networks).
rt Real Text 文件 (Progressive Networks).
swf Shock Wave Flash (Macromedia).
mov QuickTime(Apple公司格式)
viv Vivo Movie 文件(Vivo Software).
另外還有一個wmv格式,是Windows Media Video的簡稱,它與asf文件有稍許區別,wmv一般採用window media video/audio 格式,asf視頻部分一般採用Microsoft MPG4 V(3/2/1?),音頻部分是windows media audio v2/1,不過現在很多製作軟體都沒有把它們分開,所以直接更改後綴名就能夠互相轉換為對方格式。
製作完成的流媒體文件需要發布到網路上才能夠被別人使用,這就需要以特定方式安排壓縮好的流媒體文件,而安排流媒體文件的格式就被成為流媒體發布格式。常見的發布格式主要有以下幾種:
流媒體發布格式擴展 媒體類型和名稱
asf Advanced Streaming format.
smil Synchronised Multimedia Integration Language.
ram RAM File.
rpm Embedded RAM File.
asx ASF Stream Redirector/ASF流轉向器文件
xml eXtensible Markup Language
MPEG-4與流媒體
說到流媒體就不能不提及MPEG-4。MPEG-4是當前討論的焦點之一,只因為它能夠在大的壓縮比下實現近似DVD品質的視頻和音頻效果,這也是許多朋友認為MPEG-4格式肯定比rm清晰的原因。但事實上並不是如此,MPEG-4隻是一種視頻編碼技術,它的清晰度也根據壓縮時所選擇的碼率的不同有較大的改變(我們見到的MPEG-4格式文件通常為500Kbps壓縮生成,質量當然高了),並且,MPEG-4還有多種壓縮標准,如Microsoft的asf視頻部分就是基於MPEG-4的Discrete Cosine Transform (DCT),另外還有DivX的免費MPEG-4版本(開始是破解微軟的格式而來)。至於音頻部分,更是混亂,Microsoft採用windows media audio v2/1,DivX採用MP3或者更高質量的AC3等。相比而言,Real或者Apple的格式使用的是自己開發的編碼,在相同碼率,特別是低碼率下,不見得就比MPEG-4差,採取高碼率的rm格式照樣清晰可人,所以大家以後說rm格式清晰度差的觀念要改變一下:),至少也要加上條件。而且,最新的Helix Procer中的Real Video 9採用VP5壓縮格式進行編碼,這可比DivX優秀多了!
不過,流媒體伺服器開始向MPEG-4格式靠攏是不爭的事實,Real最新的Helix就開始支持mp4格式文件的服務,而RealOne Player更是只需安裝一個插件便可實現MPEG-4格式的播放。
點播與廣播
在架設流媒體伺服器之前,我們一定要了解一些點播與廣播的知識。
點播是客戶端與伺服器之間的主動的連接,在點播連接中,用戶通過選擇內容項目來初始化客戶端連接,一個客戶端從伺服器接收一個媒體流(這個連接是唯一的,其它用戶不能佔用),並且能夠對媒體進行開始、停止、後退、快進或暫停等操作,客戶端擁有流的控制權,就像在看影碟一樣。這種方式由於每個客戶端各自連接伺服器,伺服器需要給每個用戶建立連接,對伺服器資源和網路帶寬的需求都比較大。
廣播指的是用戶被動接收流。在廣播過程中,客戶端接收流,但不能控制流,用戶不能暫停、快進或後退該流,廣播使用的數據發送手段有單播與廣播。使用單播發送時,伺服器需要將數據包復制多個拷貝,以多個點對點的方式分別發送到需要它的那些用戶,而使用廣播方式發送,數據包的單獨一個拷貝將發送給網路上的所有用戶,而不管用戶是否需要,上述兩種傳輸方式會非常浪費網路帶寬和伺服器資源,因此產生了組播(多播)技術。
組播(多播)吸收了上述兩種發送方式的長處,克服了上述兩種發送方式的弱點,將數據包的單獨一個拷貝發送給需要的那些客戶,組播不會復制數據包的多個拷貝傳輸到網路上,也不會將數據包發送給不需要它的那些客戶,保證了網路上多媒體應用佔用網路的最小帶寬。但組播不僅需要伺服器端支持,更需要有多播路由器乃至整個網路結構的支持。
單播與組播(多播)
在上面我們已經了解了一些單播和組播的概念,這也是現在流媒體方面討論的焦點之一。以我的認識,點播與廣播是一組概念,它們和客戶端媒體交互的手段;單播和組播又是另外一組概念,它們是流媒體數據在伺服器端和網路上的傳輸方式。
單播發送時,需要在客戶端與媒體伺服器之間需要建立一個單獨的數據通道,從一台伺服器送出的每個數據包只能傳送給一個客戶機,每個用戶必須分別對媒體伺服器發送單獨的查詢,而伺服器必須向每個用戶發送所申請的數據包拷貝。這種巨大冗餘會造成伺服器沉重和網路帶寬的沉重負擔,響應需要很長時間,甚至出現不能服務的情況。單播可以用在點播和廣播上。
組播發送時,伺服器將一組客戶請求的流媒體數據發送到支持組播技術的路由器上,然後由路由器一次將數據包根據路由表復制到多個通道上,再向用戶發送。這時候,媒體伺服器只需要發送一個信息包,所有發出請求的客戶端都共享同一信息包,並且信息可以發送到任意地址的客戶機,沒有請求的客戶機不會收到信息包,網路上傳輸的信息包的總量沒有廣播那麼多,大大提高了伺服器和網路線路的利用率。不過組播也有自己的特點,首先是必須要開始支持組播技術的路由器,另外就是一般只能用作廣播,因為用作點播會存在用戶控制問題。
好了,說了這么多,您可能都嫌我煩了,那麼,就讓我們開始架設流媒體伺服器之旅吧。
三、流媒體伺服器硬體准備
流媒體伺服器和網站(Web)伺服器一樣,要經受許多人的同時訪問,相比Web伺服器來說,由於多媒體文件需要更強處理能力,其硬體設備應超越一般用於Web的伺服器。所以,流媒體伺服器最好滿足以下硬體條件。
一顆強勁的「芯」。如果計算機CPU頻率太低,處理能力過慢,電腦在被多用戶訪問時將我們無法進行其他任何操作(相信大家對那些網上視頻點播的網站經常當機身有體會,我們和他們建立的是一樣的伺服器,只是規模小些罷了)。
大容量內存和硬碟。流媒體的製作和發送是系統資源的黑洞,擁有大容量內存是系統穩定運行的前提;而流媒體文件體積較大,大量的媒體文件需要更多的存儲空間。建議內存至少256MB,硬碟80G以上。
佔用系統資源少的音效卡。好的音效卡有助於CPU佔用率的降低,並且對錄音的質量有很大影響(用於網上直播),建議使用Creative的SB Live!或SB Audigy、Audigy 2系列,由於筆者自己的機器不做伺服器(只用來做文章,沒錢升級啊),所以只拿普通的集成來演示。
良好的視頻捕捉設備。我們的直播節目源就來源於這塊設備,推薦使用Leadtek(麗台)的WinFast TV2000 XP豪華版,它接收信號的能力和硬體壓縮的能力都是比較出眾的(因為筆者沒有條件,所以採集設備用了屏幕捕捉,不過使用採集設備的方法是相同的,所以請大家不要見怪)。
盡量高的帶寬。當然是上網速度越快越好,不過我們可以在流媒體伺服器中對連接數做一個限制,以免當機。
當然,上面是建設一個屬於自己的流媒體服務網站必須的硬體設備,如果只是和筆者一樣,只是想在架設流媒體伺服器過程中學習一把,大可在現有機器的基礎上大膽測試。
四、架設流媒體伺服器之旅
准備好了硬體,下面就開始一步步教大家架設自己的流媒體伺服器。我將其分為Microsoft公司的Windows Media和RealNetworks的Real Media兩大部分,都包括直播與點播伺服器的建立,並在最後向大家介紹一下Apple的QuickTime和Nullsoft的流媒體伺服器。
由於Microsoft公司的Windows Media點播服務必須建立在Server版的操作系統上,所以筆者選取Windows .Net Enterprise Server 3647作為此次流媒體伺服器建立的系統平台。為了比較RealNetworks和Microsoft最新一代流媒體伺服器的優劣,筆者採用了它們最新的流媒體系統,以下是筆者使用的具體軟體:
操作系統:Windows .Net Enterprise Server 3647、Windows XP Service Pack 1
流媒體軟體:Windows Media Services 9.0(Windows .Net Server自帶)、Windows Media Encoder 9 Series Release Candidate(由於此軟體在.Net Server下運行不正常,故安裝在XP中,並且只有此軟體安裝在XP中)、Windows Media Encoder 7.1、Windows Media Player 9.0 Build z903、Helix Universal Server 9.01 FOR Win2k(9.0.2.794)、Helix Procer Plus 9.0.1、RealOne Player 2.0 Build 6.0.11.853。
下面,就讓我們開始吧!不要走開哦!!!
WinMedia網上廣播服務
單純的使用Windows Media Encoder這個軟體即可實現網上廣播服務,不過,藉助於Windows Media Services,利用Windows Media Encoder製作的流媒體文件,我們的網路廣播站功能將更為強大。下面,我們將利用Windows Media Encoder單獨建立廣播站,並將其納入Windows Media Services,實現更強大的功能。
1. 安裝Windows Media Services。
首先安裝Windows 2000 Server或者Windows .Net Server,然後打開「開始-控制面板-管理工具-管理您的伺服器」或「開始-控制面板-添加或刪除程序-添加/刪除Windows組件」(建議使用第二種),在其中勾取「Web應用程序伺服器」,也就是2000 Server中的IIS伺服器,單擊「下一步」進行添加;
添加IIS完畢後,再次啟動添加/刪除Windows組件程序,並勾取Windows Media Service項,單擊詳細信息,在其中選擇「用於Web的Windows Media Services Administrator」以啟動Windows Media Services的Web管理功能(2000中可能沒有這些選項,只需要安裝Windows Media Services即可);
2. 安裝Windows Media Encoder。
從微軟網站下載Windows Media Encoder 7.1(由於Windows Media Encoder 9.0無法在.Net Server下工作)進行安裝,至此,Windows Media服務的伺服器和編碼器都已經具備;
3. 從「開始-程序-Windows Media」 啟動Windows Media Encoder,在出現的向導界面中根據自己的需要選擇合適的選項,建議新手「使用新建會話向導廣播、捕獲或轉換文件」,選擇後單擊確定;
4. 由於進行的是廣播,所以在下一個彈出的畫面中請選擇「在附屬設備或計算機屏幕廣播實況事件」,這樣的選擇能夠讓Windows Media Encoder直接進行廣播或者將其加入Windows Media Service服務;
5. 在下一個畫面中選擇您進行視頻或音頻捕獲的設備,筆者沒有視頻卡,所以只能選擇「屏幕捕獲」,有視頻卡的朋友請選擇您的視頻卡;
6. 廣播信號必須通過一個有效的埠進行傳輸,因此必須對它進行設置。Windows Media Encoder默認的埠為8080,但由於這個埠經常被其它軟體佔用,所以建議朋友們單擊「查找可用埠」以換成其它隨機埠或者直接輸入沒有被佔用的埠。我選擇了「3170」埠;
7. 然後就開始選擇我們進行廣播的流媒體質量,有一個公式您可以參考:流媒體配置文件帶寬×最大連接用戶數=您的上行帶寬(不是下載,是上傳)。您如果有2Mbps的上行帶寬,選擇了100Kbps的配置文件,則允許同時20個觀眾看到您的廣播,由此可見,流媒體服務對帶寬的需求是巨大的;
8. 在這個窗口您可以選擇將進行廣播的流媒體存檔,以便於以後觀看或者進行點播,若只是作為實況廣播服務,並且硬碟空間不大,您可以不選取;
9. 「下一步」後,您可以選擇是不是添加微軟內置的歡迎、休息和再見文件,我就沒要這些東西,誰給微軟免費作廣告,呵呵;
10. 然後,我們可以給我們的廣播節目添加上版權信息,這些信息在播放時,會出現在Windows Media Player中;
11. 彈出最後一個確認窗口後,我們最終的廣播界面就出現了,若是有視頻捕捉設備,只要單擊「開始」,我們的廣播站就運行起來,只要在客戶機IE中輸入「mms://伺服器的:埠值」就會彈出media player播放電視。如我建立的廣播站地址就是「mms://192.168.0.1:3170,這些信息您也可以直接在此界面的連接標簽中查看;
12. 若是您和我一樣沒有視頻捕捉設置,或者想向用戶播放一段錄制好的視頻,請點擊「會話-屬性」(此面板能夠對所有設置過的數據進行調整),單擊「更改」按鈕,在彈出窗口中選擇視頻右邊的下拉框,單擊「查找文件」,找到您預先錄制好的視頻文件(支持asf、wmv、avi、mpg等格式);
13. 再回到廣播界面,點擊開始,您的文件就可以被網路上的兄弟姐妹看到了,
若是想添加更多的文件或設備,請在以上窗口單擊「更改」旁的「新建」進行添加即可;
14. 您可能覺得到這里我們就大功告成了,實際上遠遠沒有,這只是最基本的直播廣播,我們還需要將其加入Windows Media Services的廣播服務中,以實現更強大的功能。請將你的滑鼠指向「開始-控制面板-管理工具-Windows Media Services」,打開Windows Media管理器(2000 Server應該是一個Web界面)。選擇左邊的伺服器後,單擊操作菜單中的「添加發布點(向導)」,經歷歡迎頁面後,會出現發布點命名窗口,在其中輸入您願意使用的名字,我輸入的是「SOFTICP.COM_Broadcast」;
15. 在下一個窗口中,將讓您選擇所要發布的內容類型,如果只是單純的進行流媒體直播,就選擇「編碼器(實況流)」,若是想在實況流中加入其它製作好的文件,請選擇「播放列表」,若是想建立視頻點播伺服器,請選擇「目錄中的文件」。由於我有現成的製作好的文件,所以選擇了「播放列表」;
16. 選擇完了發布內容的類型,就要選擇發布的方案,我們進行的是網路廣播的服務,當然要選擇「廣播發布點」。在接下來的窗口中,我們要選擇內容的傳遞方式,看到了吧,這次我們前面介紹的單播和組播的基本概念起了作用,我們的網路一般不支持組播,所以要選擇「單播」;
17. 若是您以前有創建好的播放列表文件(wsx或htm文件),直接在下一個窗口中選擇「現有播放列表」,若是沒有,請跟我一樣,「新建播放列表後進行添加」。在添加窗口中,可以添加文件、編碼器的實況流、遠程發布點的流媒體、ASP、CGI的動態源等多種媒體,並且還可以添加廣告信息以及調整媒體的播放順序;
18. 完成播放列表的編輯後,點擊「下一步」將播放列表保存成文件,並且在下一個窗口中可以選擇是否「循環播放」或「無序播放」這些流媒體。再經歷幾個確認框,您就完成了Windows Media流媒體廣播伺服器的建立,為了快捷,我們就將「完成此向導後啟動其它向導」前面的對勾去掉吧!
19. 伺服器啟動後,您就可以在Windows Media Player中輸入「mms://伺服器IP/發布點名稱」觀看網路廣播了。而在Windows Media Services的管理器中,我們可以隨時監視流媒體的播放情況、添加/刪除與調整播放列表、插入廣告、發布公告(可以直接生成htm頁面)、調整該廣播站的屬性等操作,並可以隨時通過下面的按鈕啟動與停止廣播站以及測試當前流媒體是否正常;
此圖是使用公告向導建立的發布點公告網頁,是不是非常方便?
20. 我們還可以通過在瀏覽器中輸入管理器的網址或者直接啟動管理工具中的「Windows Media Services(Web)」來對整個流媒體伺服器進行Web管理以及遠程管理,其管理界面與本地管理除了少幾個功能外,幾乎沒有差別。
遠程管理還可以對一個伺服器組多台伺服器進行管理。
至此,我們的Windows Media網路廣播伺服器已經完全建設完畢,您已經擁有了一個具有強大功能的網路廣播站,是不是覺得不過癮?因為還有許多優秀的影片想和朋友們共享,並且想讓他們能夠自由的觀賞自己喜歡的節目,不受你廣播時間表的限制?那麼,跟我來,我們在此基礎上再搭建一個Windows Media視頻點播伺服器。
㈩ QT Web引擎支持rtsp流嗎
支持
qt客戶端實時播放rtsp音頻流demo並且無雜音
推流工具使用EasyDarwin
推流直接使用ffmpeg 推流到 EasyDarwin 伺服器,音頻流取自電腦拾音器,ffmepg指令為:
ffmpeg -f dshow -i audio=「麥克風 (Realtek® Audio)」 -codec:a aac -ac 2 -ar 16000 -f rtsp rtsp://10.1.3.170:554/3_a.sdp
至於怎麼推流自行網路呀
客戶端採用FFMPEG 取流,解析出PCM 音頻裸流,在一個線程中接收rtsp流並解析出音頻數據,具體代碼如下PlayVoicePlayer.c:
#include "playvoiceplayer.h"
#include <QDebug>
PlayVoicePlayer::PlayVoicePlayer(QObject *parent) : QThread(parent)
{
}
void PlayVoicePlayer::startPlay(QString url)
{
qDebug() << "Video2PCM::startPlay()";
playUrl = url;
unGetStream = true;
this->start();
}
void PlayVoicePlayer::run()
{
qDebug() << "Video2PCM::run():"<<playUrl;
isStart = true;
AVFormatContext *pFormatCtx = NULL;
AVCodecContext *pCodecCtx = NULL;
AVCodec *pCodec = NULL;
AVPacket packet;
AVFrame *pAudioFrame = NULL;
uint8_t *buffer = NULL;
struct SwrContext *audio_convert_ctx = NULL;
int got_picture;
int audioIndex;
int out_buffer_size;
av_register_all();
if (avformat_open_input(&pFormatCtx, playUrl.toStdString().data(), NULL, NULL) != 0)
{
emit getPcmStreamStop();
qDebug()<< " Video2PCM Couldn't open an input stream.";
return;
}
pFormatCtx->probesize = 5 *1024; //使用1000*1024 延時大概是2秒開始開始播放1920*1080使用這個參數暫時沒發新崩潰的情況
pFormatCtx->max_analyze_ration = 1 * AV_TIME_BASE;
if (avformat_find_stream_info(pFormatCtx, NULL) < 0)
{
emit getPcmStreamStop();
qDebug()<< "Video2PCM Couldn't find stream information.";
return;
}
audioIndex = -1;
for (int i = 0; i < pFormatCtx->nb_streams; i++)
{
if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_AUDIO)
{
audioIndex = i;
break;
}
}
if (audioIndex == -1)
{
emit getPcmStreamStop();
qDebug()<< "Video2PCM Couldn't find a audio stream.";
return;
}
pCodecCtx = pFormatCtx->streams[audioIndex]->codec;
pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
if (pCodec == NULL) printf("Codec not found.\n");
if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0)
{
emit getPcmStreamStop();
qDebug()<< "Video2PCM Could not open codec.";
return;
}
pAudioFrame = av_frame_alloc();
if (pAudioFrame == NULL)
{
emit getPcmStreamStop();
qDebug()<< "Video2PCM Could not alloc AVFrame";
return;
}
//音頻輸出參數
uint64_t out_channel_layout = AV_CH_LAYOUT_STEREO;//聲道格式
AVSampleFormat out_sample_fmt = AV_SAMPLE_FMT_S32;//采樣格式
int out_nb_samples = pCodecCtx->frame_size;//nb_samples: AAC-1024 MP3-1152
// int out_sample_rate = 44100;//采樣率
int out_sample_rate = 16000;//采樣率
int out_nb_channels = av_get_channel_layout_nb_channels(out_channel_layout);//根據聲道格式返回聲道個數
out_buffer_size = av_samples_get_buffer_size(NULL, out_nb_channels, out_nb_samples, out_sample_fmt, 1);
buffer = (uint8_t *)av_malloc(MAX_AUDIO_FRAME_SIZE);
audio_convert_ctx = swr_alloc();
if (audio_convert_ctx == NULL)
{
{
emit getPcmStreamStop();
qDebug()<< " Video2PCM Could not allocate SwrContext";
return;
}
}
swr_alloc_set_opts(audio_convert_ctx, out_channel_layout, out_sample_fmt,out_sample_rate,
pCodecCtx->channel_layout, pCodecCtx->sample_fmt, pCodecCtx->sample_rate, 0, NULL);
swr_init(audio_convert_ctx);
int index = 0;//計數器
while (isStart)
{
if(av_read_frame(pFormatCtx, &packet)<0)
{
emit getPcmStreamStop();
break;
}
if (packet.stream_index == audioIndex) {
if (avcodec_decode_audio4(pCodecCtx, pAudioFrame, &got_picture, &packet) < 0) {
qDebug() <<("Error in decoding audio frame.\n");
emit getPcmStreamStop();
break;
}
if (got_picture) {
// int dst_nb_samples = av_rescale_rnd(swr_get_delay(audio_convert_ctx, pAudioFrame->sample_rate) + pAudioFrame->nb_samples, pAudioFrame->sample_rate, pAudioFrame->sample_rate, AVRounding(1));
swr_convert(audio_convert_ctx, &buffer, MAX_AUDIO_FRAME_SIZE, (const uint8_t **)pAudioFrame->data, pAudioFrame->nb_samples);
if(unGetStream == true)
{
qDebug() << "Video2PCM unGetStream";
unGetStream =false;
emit getAudioStream();
}
// printf("index:%5d\t pts:%lld\t packet size:%d\n", index, packet.pts, packet.size);
//Write PCM
// fwrite(buffer, 1, out_buffer_size, fp_pcm);
emit decodePCM(packet.pts, QByteArray((char*)buffer, out_buffer_size));
index++;
}
}
av_free_packet(&packet);
}
qDebug() << "Video2PCM close1";
swr_free(&audio_convert_ctx);
av_free(buffer);
av_frame_free(&pAudioFrame);
avcodec_close(pCodecCtx);
avformat_close_input(&pFormatCtx);
isStart= false;
對應的PlayVoicePlayer.h文件如下:
#ifndef PLAYVOICEPLAYER_H
#define PLAYVOICEPLAYER_H
#include <QObject>
#include <QThread>
#ifdef _WINDOWS
extern "C"
{
#include "libavcodec\avcodec.h"
#include "libavformat\avformat.h"
#include "libswresample\swresample.h"
};
#else
extern "C"
{
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
#include "libswresample/swresample.h"
};
#endif
#include <QAudioFormat>
#include <QAudioOutput>
#define MAX_AUDIO_FRAME_SIZE 192000
class PlayVoicePlayer : public QThread
{
Q_OBJECT
public:
explicit PlayVoicePlayer(QObject *parent = nullptr);
void startPlay(QString url);
private:
bool isStart = true;
QString playUrl;
bool unGetStream;
signals:
void getPcmStreamStop();
void getAudioStream();
void decodePCM(qint64 pts, const QByteArray& pcm);
protected:
void run();
};
#endif // PLAYVOICEPLAYER_H