VR|假3D场景超1亿像素逼真到无死角 被赞AI渲染新高度( 二 )




然后,包含点云等信息的场景数据会被输入到流水线中,进行进一步的处理 。
流水线(pipeline)主要分为三个部分:可微光栅化器、神经渲染器和可微色调映射器 。

VR|假3D场景超1亿像素逼真到无死角 被赞AI渲染新高度
文章图片


首先,利用多分辨率的单像素点栅格化可微渲染器(可微光栅化器),将输入的相机参数、重建的点云数据转换成稀疏神经图像 。
其中,模型里关于图像和点云对齐的部分,采用了NavVis数据集来训练 。
然后,利用神经渲染器,对稀疏神经图像进行阴影计算和孔洞填充,生成HDR图片 。

VR|假3D场景超1亿像素逼真到无死角 被赞AI渲染新高度
文章图片


最后,由于不是每个设备都支持HDR画面,因此在显示到LDR设备之前,还需要利用基于物理的可微色调映射器改变动态范围,将HDR图像变成LDR图像 。
每个场景300+图像训练
这个新模型的优势在哪里?
由于模型的所有阶段都可微,因此这个模型能够优化场景所有参数(相机模型、相机姿势、点位置、点颜色、环境图、渲染网络权重、渐晕、相机响应函数、每张图像的曝光和每张图像的白平衡),并用来生成质量更高的图像 。
具体到训练上,作者先是采用了688张图片(包含73M个点)来训练这个神经渲染流水线(pipeline) 。

VR|假3D场景超1亿像素逼真到无死角 被赞AI渲染新高度
文章图片


针对demo中的几个场景(火车、灯塔、游乐园、操场等),作者们分别用高端摄像机拍摄了300~350张全高清图像,每个场景生成的像素点数量分别为10M、8M、12M和11M,其中5%的图像用作测试 。
也就是说,制作这样一个3D场景,大约需要几百张图像,同时每张图像的拍摄需要经过严格的角度控制 。
不过仍然有读者表示,拍几百张图像就能用AI做个场景出来,这个速度比当前人工渲染是要快多了 。

VR|假3D场景超1亿像素逼真到无死角 被赞AI渲染新高度
文章图片


功能上,模型既能生成可以调节参数的新角度照片,还能自动插值生成全场景的3D渲染视频,可以说是挺有潜力的 。
那么,这个模型的效果与当前其他模型的渲染效果相比如何呢?
实时显示1亿+像素点场景
据作者表示,论文中采用的高效单像素点栅格化方法,使得ADOP能够使用任意的相机模型,并实时显示超过1亿个像素点的场景 。
肉眼分辨生成结果来看,采用同行几个最新模型生成的图片,或多或少会出现一些伪影或是不真实的情况,相比之下ADOP在细节上处理得都非常不错:

推荐阅读