媒体滚动|Google自研芯片启示录:不为跑分只为打磨体验( 二 )
文章图片
图4/10
针对软件 , 定制硬件
‘这一切都归结于你想要完成的任务’ 。
关于芯片架构的设计 , Google 内部芯片研发部门副总裁 Carmack 在接受采访时表示:与其为了让 CPU 获得更高的单线程基准测试分数(俗称‘跑分’) , 搭载一个频率更高的大核心 , 不如用两颗频率略微降度的大核心 , 来获得实际使用中更快的响应速度 。
‘(Google Tensor)单核性能比上一代产品快 80%;GPU 性能比上一代产品快 370% 。 用户经常最关心这些纸面数据 , 但对我们来说 , 这从来不是真正的重点’ 。 Carmack 解释道:现实使用场景并不会像跑分一样 , 往往需要面临复杂得多的性能调度场景:比如在你打开相机准备拍照时 , SoC 中的 CPU、GPU、ISP , 以及 Google 自研的 TPU 都会被调度起来各司其职;这些硬件结合起来所发挥出的效能 , 才是决定最终你<拿起手机 - 拍照 - 成像>速度的真正因素 。
文章图片
图5/10
使用两颗降低频率的 X1 大核 , 去计算以往需要两颗 A76 中核来完成的工作 , 进而更加高效的完成以往需要更多时间来完成的计算 。 这种‘田忌赛马’一样的技巧 , 之所以之前并没有其他手机厂商可以效仿 , 原因正是因为处于产业链下游的手机品牌 , 其实在成本限制下 , 很难去依照自家系统/功能的性能需求对包括手机 SoC 在内的硬件量身定制 。
即便 Google Pixel 系列一直是手机计算摄影领域的领头羊 , 但从 2017 年发布的 Pixel 2 开始 , 连续四代 Pixel 手机都采用了同一颗 1200 万像素的传感器作为主摄配置;原因并非 Google 不舍得换新传感器芯片 , 而是基于新硬件重新训练算法成本太高 , 最终实现效果甚至不及现有的传感器 。
自那之后 , Google 每年在介绍 Pixel 新机在影像功能上的重点时 , 重点都只有一个 —— 计算摄影:从 Pixel 2/3 依靠单摄实现的‘人像模糊’、Pixel 4 时代的‘天文摄影模式’ , 到 Pixel 5 能给人像照片后期手动补光的‘人像光’ , 每一次 Pixel 相机加入新功能 , 都是 Google 在计算摄影领域的一次新突破 。
文章图片
图6/10
但仅凭计算摄影的算法进化 , 开发团队还是很快碰到了几乎难以逾越的硬件天花板:虽然 Google 能通过计算摄影算法让四代 Pixel 在同样主摄传感器下每年都能有新提升 , 但同样的‘魔法’却不能直接套用在视频拍摄部分上:因为手机端较弱的算力 , 无法支持借助机器学习实现的曝光堆叠算法在视频拍摄下同样使用 。 这也是过往使用高通 SoC 的 Pixel 手机视频拍摄质量并不算太优秀的原因 。
推荐阅读
- Google|谷歌暂缓2021年12月更新推送 调查Pixel 6遇到的掉线断连问题
- 设备|雷军亲自演示 MIUI 13“小米妙享中心”:一拖流转媒体内容
- 相关|科大讯飞:虚拟人交互平台1.0在媒体等行业已形成标准产品和应用
- 媒体|贵阳“融媒大脑”平台发布
- Apple|韩国要求苹果和Google删除"玩游戏赚钱"的游戏类别
- the|流媒体大战白热化:明年美8大媒体集团内容开支将达1150亿美元
- 媒体播放器|内容付费来了 消息称抖音正测试短视频“赞赏”功能
- Google|Chrome被起诉侵犯隐私 加州允许原告当庭质问谷歌CEO
- 媒体播放器|内容审核人员因PTSD起诉TikTok 律师称其遭遇报复性停职惩罚
- Google|谷歌母公司Alphabet成2021年股价涨幅最大科技巨头 全年上涨68%