首页> 详情

阅兵直播的虚拟现实技术是如何实现的?

2015-09-07 |浏览:7139次 | 编辑: 加载失败
分享到: 
  随着虚拟现实技术的演进,现在已经有越来越多的场景我们可以看到虚拟现实技术的出现。电视行业就是其中之一:去年的世界杯,今年的春晚我们都可以看到虚拟演播室在直播节目中的出现。
  这次阅兵,我们同样可以看到北京电视台也采用了虚拟演播室技术:观众可以看到,主持人一边解说,虚拟的武器装备就会在他身边出现,生动形象的向观众展示了我军装备的威武雄壮,而不是干巴巴的文字或者图片描述。
  虚拟演播室技术实际上可以说就是增强现实技术的一个子集。它同样涉及到增强现实中如何将虚拟的元素和真实的场景叠加在一起的问题。不过,增强现实是要让最后的画面呈现在用户的眼睛里,而虚拟演播室则是将画面呈现在电视的屏幕上。
  所以,它的技术重点和增强现实是一样的:
  第一是如何能够精确地定位真实的场景;
  第二是如何能够渲染出虚拟的元素;
  第三是如何实时地将虚拟的元素叠加在真实的场景上,然后返回到视频流中。
  在这里,最难的是如何将虚拟元素和真实的元素进行叠加。
  摄像机一旦运动,真实的场景和虚拟的元素都必须同步配合这个运动。电视摄像的帧率是50FPS,也就是说,引擎需要每20ms就渲染出一帧,这是一个相当高的要求。所以,系统内就应该要包括摄像头的工作状态,包括位置和视角等等,虚拟引擎才能够渲染出相对应的画面。
  于是,这里可以得到一个虚拟演播室的系统流程:
  第一步的工作是采集摄像机的工作状态信息,最重要的是摄像机的位置和它与真实场景的相对关系;然后将这些信息传送给图形工作站。
  第二步则是依此得到前景物体与摄像机之间的距离和相对位置,从而计算出虚拟元素的大小、位置,并渲染生成虚拟元素。
  如果虚拟元素涉及到虚拟人物(比如世界杯节目里的虚拟球员,或者春晚上的阳阳),则往往还要涉及到动作捕捉系统:用真人的动作实时的驱动虚拟角色的动作,然后呈现出来。
  第三步,虚拟演播室系统会将主持人的实时画面地与计算机产生的虚拟元素集成在一起,构成一个现实中不存在的场景,并且实时向观众进行广播。

(责任编辑:王翔)


声明:文章版权归原作者所有,本文摘编仅作学习交流,非商业用途,所有文章都会注明来源,如有异议,请联系我们快速处理或删除,谢谢支持。


(原文章信息:标题:,作者:网络,来源:全息网,来源地址:)

上一篇: 国产芯片逆袭!加速取代高通、联发科

下一篇: 威武!中国首台6千米水下机器人成功了

-----主办-----

河南省乡村振兴协会

-----承办-----

河南省乡村振兴协会产业与信息化专业委员会

河南金农达供应链管理有限公司

河南全息农业科技有限公司 

-----协办-----

全息数字科技