跨越3000公里,历时1个月写就的iPhone 11深度评测(31)

\n

说起来轻松 , 哪些是“正确”信息 , 哪些是噪点和抖动模糊的无用信息 , 要完全判断出来并不容易 。 这里面 iPhone 11 一代搭载的 A13 仿生处理器和第三代神经网络引擎功不可没 。

\n

\n

这就是算法的魅力 , 即使传感器只有指甲盖大小 , 并不擅长星空拍摄 , 甚至没有三脚架辅助 , 也能拍出不错的效果 。

\n

当然 , 算法本身是人来写的 , 即使是机器学习技术 , 也需要人来指明方向 。 就好像你需要告诉人工智能 , 哪些照片是好看的 , 哪些不好看 。 人工智能才能以此为审美基准完成自我进步 。

\n

“ 好像漏了什么?Deep Fusion呢? ”

\n

算法这部分到这里就结束了 , 原因是我没能等到 iOS 13.2 , 也就没等到 Deep Fusion 功能开放 。

\n

虽然目前有 beta 版可以试玩 , 但我始终觉得如果不是正式版 , 那么一切就还都不算数 。 所以 , 关于能极大提升图像细节表现力的 Deep Fusion 功能 , 等更新之后我会再做文章来介绍 , 并且会与 6400 万像素的安卓手机来 PK 一下~

推荐阅读