AI算法能“偷听”:突破伦理的“灰犀牛”并不远( 三 )

“偷听”有可能发生吗?剑桥大学的研究已经表明:肯定会的。虽然囿于技术的局限,目前尚无法偷听得那样精确。但假以时日,人工智能算法装备的智能手机等设备,肯定会把人“偷”得赤条条。而以技术发展在当今的迅猛之势,这个时日其实并不多么遥远。

我们已清楚地看到“灰犀牛”就在那里,它正在向我们冲来。可是出于无数的利益计算和犹疑,人类就是找不到切实的预防、应对之策。

这正是我们当前面临的恼人困惑。对于公民个人信息安全,目前能够想到的办法,无外乎以繁多的法律法规条款,尽可能扎紧篱笆,同时加大惩处力度。但这种办法,受制于差异极大的文化环境和执法力度,常常很难从纸面上真正落地。

而更加薄弱的是,技术伦理明显还未受到应有的重视,更缺乏现实的灌输培育。很多科技者仅仅醉心于技术突破,由于和远端的技术应用者以及被影响者相隔着明显距离,他们几乎不可能感受到技术发展可能带来的麻烦与痛苦。对于“偷听”的怀疑,其实恰恰反证了技术伦理的缺位可能带来的问题。

人工智能、大数据是当今社会发展的趋势,没有任何力量能够阻止它们前进的步伐。我们认可并且也愿意享受这样的进步,但前提条件是,它们应是为人类服务,而不是羞辱、奴役人类。

推荐阅读