这正是Google改进Pixel 4上人像模式的方式

很多文章的报道都是由微观而宏观 , 今日小编讲给大家带来的关于这正是Google改进Pixel 4上人像模式的方式的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对这正是Google改进Pixel 4上人像模式的方式这篇文章感兴趣的小伙伴可以一起来看看
在谷歌像素4是与一个以上的后置摄像头,第一像素装置,标志着一个时间公司期待已久的举动时,三联相机的预期 。

这正是Google改进Pixel 4上人像模式的方式

文章插图
Google能够使用单摄像头Pixel手机,特殊是使用纵向模式(传统上需要第二个后置摄像头)的情况下,发挥奇特的作用 。现在,该公司已在其AI博客上解释了Pixel 4纵向模式如何改善事物 。
事实证明,Pixel 4仍然使用与以前的Pixels相同的一些单相机人像模式技术 。较早的手机将双像素自动对焦技术用于人像模式,将12MP主摄像头上的每个像素均分为一半 。相机像素的每一半都看到一个略微不同的视点(尤其是在背景中) 。这同意 通过在两个视点之间找到对应的像素来粗略估量深度 。
【这正是Google改进Pixel 4上人像模式的方式】谷歌在博客中指出,这种解决方案有其局限性,因为双像素仅限于一个微小的单摄像头 。这意味着视点之间的差异非常?。?您确实需要更宽的视点以更好地进行深度估量 。
谷歌发现远摄相机
Pixel 4的远摄镜头正是在这里发挥作用的,正如Google指出的那样 , 主摄像头和远摄相机之间的距离为13mm 。Google在下面的GIF中说明了双像素和双相机之间的区别 。请注意 , 双像素(L)的垂直偏移很小,而双摄像头的偏移非常明显 。
Google AI博客
在这方面 , 双摄像头确实带来了一个重大挑战,因为在一个视图中可能无法在另一视图中找到像素(由于视角较宽) 。这就是为什么Google不会在Pixel 4上放弃肖像模式的传统方法的原因 。
“例如 , 主摄像机图像中紧靠男人右边的背景像素在次摄像机图像中没有相应的像素 。因此,当仅使用双摄像头时 , 不可能测量视差以估量这些像素的深度 。”从AI博客中摘录 。“但是,仍然可以通过双像素视图(左)看到这些像素,从而可以更好地估量这些区域的深度 。”
尽管如此,双摄像头也有助于解决所谓的光圈问题,这使垂直线的深度估量更具挑战性 。此外,当惟独一种方法(双像素或双摄像头)可用时,谷歌还训练了其神经网络来足够好地计算深度 。该公司表示 , 当相机距离拍摄对象至少20cm(长焦相机的最小焦距)时,手机会同时使用两种深度映射方法 。
最后,谷歌表示,它还努力使bokeh更加突出,因此您可以在镜头背景中更清晰地看到bokeh光盘 。查看上面的图片,以更好地了解成品 。
这不是Google Pixel手机上目前唯一的新技术,因为该公司先前详细介绍了其天文摄影模式的工作原理 。无论哪种方式,我们都希翼Google在2020年继续突破计算摄影的界限 。

    推荐阅读