从视频分析到量子霸权:探究谷歌的人工智能之路(12)

I/O开发者大会的第二天,谷歌机器学习道德、信任和安全负责人珍·金奈(Jen Gennai)主持了一场关于“为公平、道德的人工智能和机器学习编写概要”的会议。她告诉观众:“我们已经确定了四个领域,这是我们的红线,是我们不会追求的技术。我们不会制造或部署武器。我们也不会部署我们认为侵犯权利的技术。”她和另外两名谷歌高管继续解释公司现在如何将人工智能原则融入所开发的内容中,以及为解决算法偏见和预测人工智能意外后果所制定的全面计划。

发言结束后,来自不同公司的一小群开发人员混在一起,对此并不满意。“我觉得我们得到的还不够多,”一位用TensorFlow且经常与谷歌合作的大型国际公司员工表示。“他们告诉我们,‘别担心。我们能够做到。我们都知道他们没有做到。”

这些开发人员完全有理由怀疑。谷歌经常言行不一,而人工智能的风险更高。2018年3月有报道称,该公司与五角大楼签订了一份名为Maven的人工智能无人机打击技术合同。在谷歌员工抗议了三个月后,皮查伊宣布不会续签合同。

当被问及人工智能的黑暗面时,和蔼可亲的迪恩变得严肃起来。“我团队中的人对我们应该如何与国防部合作直言不讳,”他指的是他们在Maven项目上的工作。迪恩列举了谷歌不会开发的人工智能应用列表。“其中之一是研发自动化武器。对我来说,这是一件我不想做的事,或者希望撇开的事情。”

推荐阅读