官方解释为什么Pixle 4人像这么好


谷歌在上个月公布了 Pixel 4 天文模式的拍照技术细节后 , 近日又把人像模式放出来 , 准备和大家讲讲这个技术 。 在去年的 Pixel 3 机型上 , Google 利用了 Dual Pixel 技术在单镜头上实现了与光圈宽度相等的视差 , 相较之下 , 利用 Pixel 4 手机的多镜头 , 可以在拍摄时同时记录更多信息 , 通过两个或多个镜头协同工作 , 在手机上进行视差计算 , 达到更好的深度计算效果 。

\n \n

在 Pixel 4 的人像模式上 , 第一个改进就是用双镜头协同工作 , 两个镜头之间的 13mm 视差 , 物理上就好于上一代单摄 Pixel 3 。 除此之外 , 在用户按下快门时 , 两个镜头同时拍照 , 加上主镜头原有的 Dual Pixel , 内部 AI 通过将 Dual Pixel 输出称深度图 , 合并双镜头画面输出另一张深度图 , 最后将两张深度图融合成最终的效果 。

\n

Google 表示这套系统的有点是当长焦镜头无法使用时 , 例如离被摄像物体太近对不到焦 , 系统依然可以通过 Dual Pixel 计算虚化 。

\n \n

除此之外 , Pixel 4 在计算散景的方法上并非传统的模糊 。 前代 Pixel 3 就可以利用点状光源模糊成半透明盘状 , 并随着距离变化改变盘状强度 。 在 Pixel 4上 Google 针对 HDR 效果做了改善 , 原先 HDR 动态范围压缩后再进行散景的处理 , 这样画面会显得暗淡 , Google 现在把这套方法翻转过来 , 效果提升更为明显 。

推荐阅读