VR|假3D场景超1亿像素逼真到无死角 被赞AI渲染新高度( 二 )
然后,包含点云等信息的场景数据会被输入到流水线中,进行进一步的处理 。
流水线(pipeline)主要分为三个部分:可微光栅化器、神经渲染器和可微色调映射器 。
文章图片
首先,利用多分辨率的单像素点栅格化可微渲染器(可微光栅化器),将输入的相机参数、重建的点云数据转换成稀疏神经图像 。
其中,模型里关于图像和点云对齐的部分,采用了NavVis数据集来训练 。
然后,利用神经渲染器,对稀疏神经图像进行阴影计算和孔洞填充,生成HDR图片 。
文章图片
最后,由于不是每个设备都支持HDR画面,因此在显示到LDR设备之前,还需要利用基于物理的可微色调映射器改变动态范围,将HDR图像变成LDR图像 。
每个场景300+图像训练
这个新模型的优势在哪里?
由于模型的所有阶段都可微,因此这个模型能够优化场景所有参数(相机模型、相机姿势、点位置、点颜色、环境图、渲染网络权重、渐晕、相机响应函数、每张图像的曝光和每张图像的白平衡),并用来生成质量更高的图像 。
具体到训练上,作者先是采用了688张图片(包含73M个点)来训练这个神经渲染流水线(pipeline) 。
文章图片
针对demo中的几个场景(火车、灯塔、游乐园、操场等),作者们分别用高端摄像机拍摄了300~350张全高清图像,每个场景生成的像素点数量分别为10M、8M、12M和11M,其中5%的图像用作测试 。
也就是说,制作这样一个3D场景,大约需要几百张图像,同时每张图像的拍摄需要经过严格的角度控制 。
不过仍然有读者表示,拍几百张图像就能用AI做个场景出来,这个速度比当前人工渲染是要快多了 。
文章图片
功能上,模型既能生成可以调节参数的新角度照片,还能自动插值生成全场景的3D渲染视频,可以说是挺有潜力的 。
那么,这个模型的效果与当前其他模型的渲染效果相比如何呢?
实时显示1亿+像素点场景
据作者表示,论文中采用的高效单像素点栅格化方法,使得ADOP能够使用任意的相机模型,并实时显示超过1亿个像素点的场景 。
肉眼分辨生成结果来看,采用同行几个最新模型生成的图片,或多或少会出现一些伪影或是不真实的情况,相比之下ADOP在细节上处理得都非常不错:
推荐阅读
- 浦峰|冬奥纪实8k超高清试验频道开播,冬奥结束后转入常态化运转
- 技术|“2”类医械有重大进展:神经介入产品井喷、基因测序弯道超车
- 影像|iQOO 9 系列预热:首发三星 GN5 传感器,150° 鱼眼超广角
- 重大进展|“2”类医械有重大进展:神经介入产品井喷、基因测序弯道超车
- IT|全球每日新增确诊病例首超100万例 世卫:两大毒株正掀起“疫情海啸”
- 矩阵|聚焦快递末端痛点 国内首款无人驾驶快递物流车在中通启动应用场景内测
- 电子商务|员工抱怨亚马逊太冷酷:工伤后得不到赔偿 还不让休假
- Tesla|特斯拉回应“保费暴涨”:平均涨幅约10% 高性能车型不超20%
- 硬件|Intel 11代酷睿4核15瓦超迷你平台 仅有信用卡大小
- Tesla|网传特斯拉等新能源汽车保费上涨超50% 多家车险公司回应不实