清华教授温江涛:后摩尔时代的视觉感知应回归能耗( 六 )

图 | 温江涛接受 DeepTech 采访(来源:EmTech China)

DeepTech 在会后采访了温江涛 , 就人工智能、5G 背景下的 “视觉感知” 相关问题进行了交流(以下为不改变原意的采访实录):

DeepTech:从广播电视一直到网络数字图象发展非常速度快 , 现在已经到 4K、8K、16K , 你怎么评价这种趋势?

温江涛:首先肯定是很快 , 我觉得最核心的几个要素现在已经具备了:首先是带宽 , 其次现在比较流行的一些短视频软件都允许用户直接在手机上进行编辑编码 , 从而大大提到用户生成内容的观赏价值 。

但是这里有一个非常重要的问题 , 今天给人看的和给机器看的视频是没有区别的 。 今天拍摄到的绝大部分内容可能是永远不会有人看的 , 比如城市监控这些视频 , 除非调出来 , 出事的时候才会有人看 。 而有更多的摄像机永远都不会被接到显示器上去 。

在将来 , 视频的应用是无处不在的 。 我们希望被人看的视频能越来越清晰 , 而除了娱乐以外 , 针对机器看的东西希望能开始重新设计一套机理让它广泛应用起来 , 在一些用很复杂的传感器来解决问题的地方 , 可以用视频来解决 。 但是最核心的东西 , 一个是成本 , 一个是功耗 。

推荐阅读