87、虚拟发布(1 / 4)

这幅场景其实很简单,宽阔澄净的江河,两岸是森林,河中心是小岛,小岛上有一座楼阁。

让陆小婵感觉震撼的是画面的真实度。

江水清澈澄莹,泛着点点微波,森林广袤幽深,上方笼罩雾霭,小岛上有茂密的植物随风飘动,岛中楼阁掩映在层层叠叠的光影中,后方又有远山夕阳……

她置身其中,只感觉从vr眼镜传到视神经的刺激似乎也能感染其他神经,江水的冰凉,水波涌向皮肤泛起的痒,雾霭降下湿润的水汽,森林里穿行而过的风,掠过她又掠向前方的小岛……

……这真是一个cg场景吗?

应该是地球上真实存在的某个地方才对!

陆小婵迫不及待地想上岸去近距离看看那些风景,看看它们究竟是什么样子,为什么呈现在自己眼中可以那么逼真。

她抬起手柄,打算向前移动,却在抬手的一瞬间愣住。

视野里,角色竟然随着她的动作同时抬起了手。

……怎么可能?

她自己就是做vr游戏的,写过无数手柄识别程序。她心想,是不是程序识别到手柄抬起,就自动给加上了手臂动作?

她把手柄放下,却发现手臂依然可以抬起。

正疑惑时,视野里出现了一行提示:请尝试活动手指。

难道角色和人物真的是同步的?自己动了角色就会动?总不会是动作捕捉吧?陆小婵心里有种荒谬感。

她摘下头盔,果然看电脑上方夹着一个小巧的摄像头,单看外形和普通摄像头没有任何区别。

她尝试着张开五指再并拢,视野里角色的手果然做出一模一样的动作。

尽管动作稍显僵硬,却没有一丝一毫延迟。

陆小婵不信邪地把手凑近,画面里的手顿时也来到了眼前,她又抬起头,两只手高高举在眼前,一会儿摊开,一会儿转动,一会儿比个特殊手势……

不管她做什么,vr画面总是瞬间同步。

真的是动作捕捉——基于摄像头的动作捕捉。

这技术以前也不是没见过,kinect就是摄像头动补比较成功的产品,还有深空的特效插件,可以用普通摄像头完成动补。

但是精确到手指每一个关节、心到手到眼到,心里想着、手作出动作、视觉马上就收到反馈,毫无延迟,就好像自己和虚拟角色彻底重合在一起,这就极其困难了。

不光如此,映入眼帘的皮肤更让人吃惊。

手部皮肤上,细小的绒毛、毛孔、突起、肌理细纹、若隐若现的血管……分毫毕现。每一处都是细节,每一处都是质感。

只可惜头盔的显示技术不好,画面存在严重的颗粒感,否则跟真实观察自己的手有什么区别?

陆小婵心想,技术什么时候先进到这种程度了,vr能做得这么登峰造极?

用cg还原真人皮肤质感,她见过,在好莱坞电影里。

实时动作捕捉,也见过。一个巨大空旷的房间,演员身上贴满传感器。

但眼前的场景不是电影,她身上更没有贴满传感器,只通过一台电脑、一个摄像头,就完成了电影级实时渲染和高精度动补。

更让人匪夷所思的是,画面始终维持着超低延迟和60帧刷新率。

渲染和动补尚在理解范围,但是这个始终保持在20ms以下的延迟,简直让陆小婵震撼得头皮发麻。

“这个延迟是真实存在的吗?”她甚至开始怀疑人生,“我不会是戴上眼镜的那一刻穿越到未来了吧?”

她还真摘掉眼镜确认了一下。

还是那个网吧一样的展厅,还是在siggraph大会现场,电脑显示的时间还是2021年7月。

她重新戴上眼镜,感觉自己有可能在做梦。

陆小婵为什么能知道延迟一直在20ms以下——

因为从开始到现在,进入这个vr场景的全过程,她一直没有出现眩晕感。

vr眩晕有三大来源,一是硬件和内容设计上的不合理;二是晕动症;三是延迟。

设计的不合理可以一点点改进,晕动症并非每个人都有,陆小婵就属于几乎不晕的那种。

只有延迟是无差别的,20ms标准牢不可破,超出必然导致眩晕。

带着头盔的用户看向哪里,程序就必须立刻渲染出哪里的画面。人眼反应时间大约在20ms,如果“看向某处-某处显示画面”这个过程大于20ms,大脑就会产生滞后感,从而造成眩晕。

也就是说,硬件检测到用户动作、gpu渲染新画面、显示设备成像,这三个过程,再加上数据来回传输的时间,总时长必须压缩在20ms以内。

否则,眩晕问题永远无解。

陆小婵从戴上眼镜到现在没有产生眩晕感,说明画面延迟一直保持在20ms以下。

运行着离谱的实时渲染和动补,还能有这么低的延迟,未免也太匪