发布时间:2017-04-01作者:林静
从技术上看,一个完整的VR直播解决方案一般含有以下几个板块:采集端设备,上传网络,直播后台,分发网络,以及播放端。这些板块可以说是环环相扣。
下图是当初公司决定要做VR时,我一个月内吧国内做VR还叫得上号的厂商走了个遍。之后形成的一个框架概念。欢迎大家共同交流。
环节一:采集端
设备:
现在市面上的VR设备从几百到几千价位不等,质量也是层次不齐。VR摄像头本身制造的技术含量并不高,很多家就是拿了几个鱼眼摄像头组成了VR设备。或者是直接将几个Gopro拼在一起,这种类型的我们俗称“狗笼”。
处理:
但是在摄像头端完成的不止是采集内容这一步而已。设备里面一般会配套搭载的软件和算法才是重中之重(也有的是直接连在控制台上完成的,那些一般就会需要人工参与,相对的,拼接等质量也会比较好)。在VR直播中,所有的拼接都是直接即刻完成的,例如缝合、映射、美颜、编码、特效(白平衡,曝光等)。而在设备内部的缝合合成、映射的算法,目前绝大多数家用的也是开源的算法,只有极少数的团队能做到自研。像facebook就将他的transform方案开源了部分代码。
还有一个限制VR直播的问题在于码流。因为VR视频内容在映射后,肉眼可视的分辨率会下降很多。所以对原始视频的画质要求就比较高,一般都要求在4K,甚至有些家能达到8K。4K分辨率下,码流接近20M。假如此处H.265能够在采集端得到大范围的推广,可以大幅降低此处的带宽压力。但是H.265受限于专利费,目前看来大幅应用于采集端还有很长的路要走。
环节二:云端
CDN:
目前国内传统的 CDN厂商,网宿、蓝汛,以及一些较大的云厂商:金山、阿里、腾讯(也有在自建CDN)都是大家可以选择的平台。其实后面的价格云厂商他们的CDN节点也并不是完全自建,一般是自建+传统厂商。接触VR早期的时候我还陷入过误区,以为VR直播内容是放在云端进行拼接合成。但的确就带宽层面,以及在云端进行同步也基本是不可能的(目前一般都是在设备上直接硬同步)。一般厂商是在采集端完成了拼接映射后将VR内容,成一个球形一起传到云端。CDN处咱们可喜可贺的是,目前的厂商对上行都是不收费的。不然此处又是一笔天价的费用。
处理:
云端的转码、存储和分发都是直接可以适用VR的。具体技术其实和一般的视频并无区别。比较大的亮点,就是各家H.265的技术。例如金山的H.265,在H.265生态链打通后,H.265和VR结合能够成为一个很大的优势点。毕竟在确保画质更优情况下,带宽的节省可是实打实的。
环节三:播放端
播放端和采集端对应的是还有一个逆映射的过程。通用的方案一般是Equiretangular,也有采用facebook transform的方案的。有了解到现在商用的VR播放器大多都是在unity引擎基础上做的。整体的开发技术难度也比较低。
从这样看来,楼主的问题就很简单了。VR直播的内容都是在采集端完成拼接合成再上传到云端。不管后期如何发展,将多路内容上传到云端进行合成我个人觉得还是不可能的。尤其是在直播中。
Copyright © 2015 ilinki.net Inc. All rights reserved. 智汇工业版权所有
电话:010-62314658 邮箱:service@ilinki.net
主办单位:智汇万联(北京)信息技术有限公司