“我们可以认为这就是一款光场相机,”OTOY的CEO Jules Urbach表示。“这款相机是未来影像捕捉工作流程的标准。”
360度全景视频是目前我们在VR头显中主要能够观看到的内容。但是实际上许多内容是并没有达到真正全景视频标准的,因为这种视频的捕捉和播放都十分困难。除此之外,很多人认为在全景视频中只能转动头部、不能真正走动是个很大的局限。这是由于目前大多数相机只能生成平面的全景图像,然后让这些图像像一个球一样包裹着观众。
Facebook和OTOY发现,如果将捕捉图像看做流媒体播放数据点的话,就能够以相机为中心提取到周围足够的景深信息,观众可以在其中随意走动来从不同角度观看。
同时,Facebook还和许多后期制作和视觉特效公司合作,包括Adobe、OTOY、Foundry、 Mettle、DXO、Here Be Dragons、Framestore、Magnopus以及The Mill等,为这个新的拍摄系统开发后期制作工具和工作流程。
根据Facebook的说法,24目相机可以捕捉所有摄像头里每个像素完整的RGB和深度信息。它会在每个点“多重采样”四倍,并且使用深度预测算法来捕捉高分辨率的画面和深度信息。6摄像头的系统则会多重采样三倍。
OTOY与Facebook 6自由度相机系统详解:
“镜头的排列有着精准的重叠(这也是景深如何从原数据中产生的方法),这些景象的重叠(24目相机的脚本中大约为8次重叠)足够填补拍摄时出现的很多漏洞,并最小化用户头边观影气泡的深度阴影。” Urbach表示。“对于远场景深的阴影,我们在播放器中使用了‘直观判断’的方法来填补相机没有捕捉到的空隙。我们在F8演讲里还会讨论一种简单的工作流方法,即先拍摄环境背景,再拍摄动态元素。我们的软件可以让人很容易地把这些层次通过Octane引擎分离出来。OTOY还在开发一种模板,能让24目相机以直线或圆形路径的方式移动4-6秒,达成光场拍摄效果。”
那么,一个物体能够离摄影机多近呢?
Urbach回答说,对于普通的1:1 的6自由度视频,场景最近的部分最好距离相机大于或等于1米,除非是拥有很多的交叠量或互相叠加的层级,不然无法拍摄非常近的内容。
在“雪球模式”中(在这个模式里,用户可以把整个场景缩成一个球放在手中),相机的位置在默认状态下是没有边界的。看上去非常惊艳,这也是我最喜欢用来体验内容的方式。在Tango或ODG的R9这种AR/XR设备上,这将会是6自由度视频的默认配置。
关注微信公众号:VR陀螺(vrtuoluo),定时推送,VR/AR行业干货分享、爆料揭秘、互动精彩多。
投稿/爆料:tougao@youxituoluo.com
稿件/商务合作: 六六(微信 13138755620)
加入行业交流群:六六(微信 13138755620)
元宇宙数字产业服务平台
下载「陀螺科技」APP,获取前沿深度元宇宙讯息