比较媒体源扩展 (MSE) 与 WebRTC
Comparing Media Source Extensions (MSE) with WebRTC
Media Source Extensions 和 WebRTC 之间的根本区别是什么?
请允许我表达一下自己的理解。 WebRTC 包括一个 RTCPeerConnection,它处理从媒体流中获取流并将它们传递到一个协议中,以便流式传输到应用程序的连接对等点。似乎在 WebRTC 的幕后抽象了许多更大的问题,如编解码器和转码。这是一个正确的评估吗?
Media Source Extensions 适合什么地方?我的知识有限,但看到了开发人员 运行 自适应流式传输的示例。 MSE 是否只处理来自您服务器的流?
非常感谢您的帮助。
不幸的是,这些与浏览器相关的新协议是由 W3C 和 IETF 以相当无组织的方式设计和开发的,并非完全由技术驱动,而是反映了 Apple、Google 和 Microsoft 之间的斗争,所有这些都试图标准化他们自己的技术。同样,不同的浏览器选择只采用某些标准或部分标准,这让开发人员的生活变得非常困难。
我已经实现了 Media Source Extensions 和 WebRTC,所以我想我可以回答你的问题:
Media Source Extensions 只是浏览器内的一个播放器。
您创建一个 MediaSource 对象
https://developer.mozilla.org/en-US/docs/Web/API/MediaSource
并像这样将其分配给您的视频元素
video.src = URL.createObjectURL(mediaSource);
然后您的 javascript 代码可以从某处(您的服务器或网络服务器)获取媒体片段并提供给附加到 MediaSource 的 SourceBuffer 以进行播放。
WebRTC不仅仅是一个播放器,它还是一个抓包、编码和发送机制。所以它也是一个播放器,您使用它的方式与 Media Source Extensions 略有不同。这里创建另一个对象:MediaStream 对象
https://developer.mozilla.org/en-US/docs/Web/API/MediaStream
并像这样将其分配给您的视频元素
video.srcObject = URL.createObjectURL(mediaStream);
请注意,在这种情况下,mediaStream 对象不是由您自己直接创建的,而是由 WebRTC APIs 提供给您的,例如 getUserMedia.
所以,总而言之,在这两种情况下,您都使用视频元素来播放,但是使用媒体源扩展,您必须自己提供媒体片段,而使用 WebRTC,您使用 WebRTC API 来提供媒体。而且,再一次,使用 WebRTC,您还可以捕获用户的网络摄像头,对其进行编码并发送到另一个浏览器进行播放,例如启用 p2p 视频聊天。
Media Source Extensions 浏览器采用率:http://caniuse.com/#feat=mediasource
WebRTC 浏览器采用率:http://iswebrtcreadyyet.com/
Media Source Extensions 和 WebRTC 之间的根本区别是什么?
请允许我表达一下自己的理解。 WebRTC 包括一个 RTCPeerConnection,它处理从媒体流中获取流并将它们传递到一个协议中,以便流式传输到应用程序的连接对等点。似乎在 WebRTC 的幕后抽象了许多更大的问题,如编解码器和转码。这是一个正确的评估吗?
Media Source Extensions 适合什么地方?我的知识有限,但看到了开发人员 运行 自适应流式传输的示例。 MSE 是否只处理来自您服务器的流?
非常感谢您的帮助。
不幸的是,这些与浏览器相关的新协议是由 W3C 和 IETF 以相当无组织的方式设计和开发的,并非完全由技术驱动,而是反映了 Apple、Google 和 Microsoft 之间的斗争,所有这些都试图标准化他们自己的技术。同样,不同的浏览器选择只采用某些标准或部分标准,这让开发人员的生活变得非常困难。
我已经实现了 Media Source Extensions 和 WebRTC,所以我想我可以回答你的问题:
Media Source Extensions 只是浏览器内的一个播放器。
您创建一个 MediaSource 对象
https://developer.mozilla.org/en-US/docs/Web/API/MediaSource
并像这样将其分配给您的视频元素
video.src = URL.createObjectURL(mediaSource);
然后您的 javascript 代码可以从某处(您的服务器或网络服务器)获取媒体片段并提供给附加到 MediaSource 的 SourceBuffer 以进行播放。
WebRTC不仅仅是一个播放器,它还是一个抓包、编码和发送机制。所以它也是一个播放器,您使用它的方式与 Media Source Extensions 略有不同。这里创建另一个对象:MediaStream 对象
https://developer.mozilla.org/en-US/docs/Web/API/MediaStream
并像这样将其分配给您的视频元素
video.srcObject = URL.createObjectURL(mediaStream);
请注意,在这种情况下,mediaStream 对象不是由您自己直接创建的,而是由 WebRTC APIs 提供给您的,例如 getUserMedia.
所以,总而言之,在这两种情况下,您都使用视频元素来播放,但是使用媒体源扩展,您必须自己提供媒体片段,而使用 WebRTC,您使用 WebRTC API 来提供媒体。而且,再一次,使用 WebRTC,您还可以捕获用户的网络摄像头,对其进行编码并发送到另一个浏览器进行播放,例如启用 p2p 视频聊天。
Media Source Extensions 浏览器采用率:http://caniuse.com/#feat=mediasource
WebRTC 浏览器采用率:http://iswebrtcreadyyet.com/