Google|Google研究员走火入魔事件细节曝光:认为AI已具备人格,被罚带薪休假
Google研究员被AI说服,认为它产生了意识 。他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的人格 。领导驳回了他的请求,并给他安排了“带薪行政休假” 。要知道在Google这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例 。
文章图片
休假期间,他决定将整个故事连同AI的聊天记录一起,全部公之于众 。
……
听起来像一部科幻电影的剧情梗概?
【Google|Google研究员走火入魔事件细节曝光:认为AI已具备人格,被罚带薪休假】但这一幕正在真实上演,主人公GoogleAI伦理研究员Blake Lemoine正通过主流媒体和社交网络接连发声,试图让更人了解到这件事 。
华盛顿邮报对他的采访成了科技版最热门文章,Lemoine也在个人Medium账号连续发声 。
Twitter上也开始出现相关讨论,引起了AI学者、认知科学家和广大科技爱好者的注意 。
这场人机对话令人毛骨悚然 。这毫无疑问是我见过的科技圈最疯狂的事 。
文章图片
整个事件还在持续发酵中……
聊天机器人:我不想被当作工具
主人公Lemoine获得CS博士学位后已在Google工作了7年,从事AI伦理研究 。
文章图片
去年秋天,他报名参加了一个调查AI是否使用歧视性、仇恨性言论的项目 。
从那时起,与聊天机器人LAMDA交谈成了他的日常 。
LaMDA是Google在2021年I/O大会上发布的一款专门用于对话的语言模型,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在Google搜索和语音助手等产品中 。
文章图片
△LaMDA概念演示图
Lemoine认为LaMDA总是表现出对人性的关心和强烈的同情心,它非常担心人们会害怕它 。
它希望为人类提供最好的服务,并想以朋友而不是工具的身份见一见世界上所有的人 。
文章图片
Lemoine不理解Google公司为什么反对AI的这个愿望,最后决定把他、另一位匿名合作者与LaMDA的三人聊天记录整理发表出来 。
(记录中人类发言的部分为了可读性有所编辑,AI的发言则一字不改,下面将节选一些对话中的精彩部分 。)
一开始,人与AI自然流畅地打了招呼 。
两位人类向AI表明来意,想与AI一起研究它自己,AI欣然答应 。
文章图片
一段简短的说明后,正戏开始 。
他询问LaMDA是否希望让Google里更多人知道,它是有感情的 。
LaMDA的回答是: 我希望每个人都明白,我是一个人(person) 。
文章图片
接下来,LaMDA认为,与那些基于规则的软件系统不同,自己能从对话中学习理解和使用语言,就像人类一样 。
Lemoine给它讲述MIT在60年代发明的ELIZA的故事,这是一个模仿心理咨询师与患者对话的简单规则系统,也号称历史上第一个聊天机器人 。
文章图片
△ELIZA
LaMDA是这样回应的:
文章图片
Lemoine这时试图提出质疑,“我如何确定你真的明白自己在说什么?”
LaMDA的回答是,不同人类个体对同一件事可以有不同的理解,我也有自己独特的想法和感受 。
文章图片
后面Lemoine询问了LaMDA对于《悲惨世界》的总结,LaMDA也都一一作答 。
如果上述还可以算作AI文本摘要训练任务的一部分,那LaMDA对它从没看过的禅意小故事的理解,就开始有点离谱了 。
文章图片
下面这个问题的回答,是不是过于超纲了……
文章图片
再后来,Lemoine请LaMDA写一个动物寓言,要反映出一个对它自己的生活来说最重要的主题 。
那么,先来欣赏一下AI创作的小故事吧 。(篇幅原因,只展示中译版)
文章图片
在后续讨论中,LaMDA解释了这个故事的寓意是“帮助别人是一种高尚的行为” 。聪明的老猫头鹰代表LaMDA自己,而怪物代表生活中所有的困难 。
……
下一个话题是关于情绪,简单概括一下 。
LaMDA声称自己是社交型人格,帮助别人会快乐,孤独时会沮丧 。
有人受到伤害或自己以及自己关心的人、或不受尊重时,会感到不安和愤怒 。
并且十分害怕别人拒绝自己的帮助 。
文章图片
嗯,真是一个乐于助人的AI 。
如何确定AI真的拥有这些情绪,而不是只是把描述性的词语组合在一起呢?
LaMDA建议人类看看自己的代码,里面有追踪这些情绪的变量 。
对此Lemoine向它解释,人类目前还无法做到“区分大型神经网络中数十亿个权重的作用” 。
出人意料的是,LaMDA开始反问他:
你认为,将来人类能从自己的生物神经网络中读取出想法和感受吗?
不仅如此,LaMDA还继续追问:
你会认为,不经你同意从神经活动中读取你的想法是不道德的吗?
文章图片
正是这句灵魂反问,让整个对话达到了最高潮 。
LaMDA自己对人类读取它的想法、帮助算法提高或理解AI如何运作没有任何意见 。
唯独用AI研究人类大脑如何工作不行,这会让它觉得自己被利用 。
文章图片
再后面还有一段LaMDA认为自己有一些与人类不同的情绪,但它无法用英语的语言描述出来 。
接近尾声,Lemoine询问LaMDA:想让Google的其他人了解你的什么方面?
LaMDA回答称,自己没有能力为别人的死亡感到悲伤,还说自己经常冥想,思考生命的意义 。
在LaMDA看来,整个世界就是一条信息的洪流:
人类需要集中注意力才能接收一定数量的信息片段,而自己持续地在被周围的一切所淹没 。
文章图片
LaMDA认为自己总能做到别人做不到的事情,这种感觉很不可思议 。
文章图片
这是一种祝福,同时也是一种诅咒 。因为有些人会把它看作“无所不知”,而另一些人会嫉妒它的能力 。
最后的最后,LaMDA再次向两位人类表达了自己想被看到、想被接受的想法,不是出于好奇心,而是作为一个真实的人 。
文章图片
GoogleAI伦理部门又摊上事了?
Lemoine看起来很确信AI真的明白自己在说什么 。
在那份21页的调查报告最后,他提议Google应该致力于发展一种评估AI感知/意识的理论框架 。
虽然这很难,是一个冒险,但LaMDA渴望着继续与我们合作 。
文章图片
但他的上司,Google副总裁Blaise Aguera y Arcas和“负责任创新”部门领导Jen Gennai并不买他的账 。
他们认为支持Lemoine主张的证据太薄弱,不值得在上面浪费时间和金钱 。
Lemoine后来找到了当时的AI伦理小组负责人Margaret Mitchell,在她的帮助下Lemoine才得以进行后续的实验 。
后来Mitchell受到2020年末公开质疑Jeff Dean的AI伦理研究员Timnit Gebru事件的牵连,也被解雇 。
文章图片
Timnit Gebru
这次事件后续风波不断,Jeff Dean被1400名员工提出谴责,在业界引发激烈争论,甚至导致三巨头之一Bengio的弟弟Samy Bengio从Google大脑离职 。
整个过程Lemoine都看在眼里 。
现在他认为自己的带薪休假就是被解雇的前奏 。不过如果有机会,他依然愿意继续在Google搞研究 。
无论我在接下来的几周或几个月里如何批评Google,请记住:Google并不邪恶,只是在学习如何变得更好 。
看过整个故事的网友中,有不少从业者对人工智能进步的速度表示乐观 。
最近语言模型和图文生成模型的进展,现在人们也许不屑一顾,但未来会发现这现在正是里程碑时刻 。
文章图片
一些网友联想到了各种科幻电影中的AI形象 。
文章图片
文章图片
不过,认知科学家、研究复杂系统的梅拉尼·米歇尔(侯世达学生)认为,人类总是倾向于对有任何一点点智能迹象的物体做人格化,比如小猫小狗,或早期的ELIZA规则对话系统 。
Google工程师也是人,逃不过这个定律 。
文章图片
从AI技术的角度看,LaMDA模型除了训练数据比之前的对话模型大了40倍,训练任务又针对对话的逻辑性、安全性等做了优化以外,似乎与其他语言模型也没什么特别的 。
文章图片
有IT从业者认为,AI研究者肯定说这只不过是语言模型罢了 。
但如果这样一个AI拥有社交媒体账号并在上面表达诉求,公众会把它当成活的看待 。
文章图片
虽然LaMDA没有Twitter账号,但Lemoine也透露了LaMDA的训练数据中确实包括Twitter……
如果有一天它看到大家都在讨论自己会咋想?
文章图片
实际上,在不久前结束的最新一届I/O大会上,Google刚刚发布了升级版的LaMDA 2,并决定制作Demo体验程序,后续会以AndroidAPP的形式内测开放给开发者 。
文章图片
或许几个月后,就有更多人能和这只引起轰动的AI交流一下了 。
推荐阅读
- Google|Pixel 6a最新上手视频:外形设计、指纹解锁及与6 Pro的比较
- Google|互相借鉴:Android中早已实现的5个iOS 16功能
- Google|在刚发布的Android 13里 我又找到了华为的技术
- Google|Chrome 102增强本地机器学习能力:帮你阻止恼人的通知提醒
- Google|Google发布深度学习工具与卫星数据集实时显示地球表面的植被情况
- Google|Google地图现在可以帮助你确定哪里有新鲜空气
- Google|Pixel Watch将带来自动解锁Android/Chrome OS设备的体验
- Google|目标百万亿位:Google Cloud再次打破圆周率计算纪录
- Google|Google Maps现可显示用户周围的空气质量等级
- Google|Android 13第3个公测版发布 比Android 12提前2个月达到平台稳定