问题|疫情下的机器人护理问题:算法中的种族与性别歧视

编者按:随着新冠对全世界人民的健康安全造成了巨大威胁 , 科技公司将目光投向了能够安全地为病人和老年人提供护理的机器人开发领域 。 但是 , 看似先进且无害的人工智能护理机器人可能蕴含着开发者本身的性别和种族偏见 。 护理领域非常依赖于有色人种贫困妇女的劳动 , 考虑到机器人护理的高昂花费 , 未来的工作仍然由“必不可少的”低工资劳动力组成 。 她们往往缺乏维持生活的工资、无法保障工作场所的安全、没有带薪病假和探亲假 , 以及适当的医疗保健 。
然而 , 从使用白人女性的形象作为格蕾丝的“面孔” , 到使用白人的外貌抹去EngKey机器人背后的“菲律宾英语教师” , 再到被设计为“美丽女性”的护理机器人爱丽卡 , 这些例子揭露了设计师的认识:照顾世界的劳动责任主要应该由妇女来承担 , 而“白人”教师与护理人员则要优于其他种族的工作人员 。
据统计 , 到2030年 , 有偿与无偿的护理人员数量都将面临巨大空缺;但是 , 机器人自动化是否是解决这一短缺的最佳方式仍有争议 。 即使假设在不久的将来 , 同理心、情感劳动和创造力可以随时被机械化(许多机器人专家对此表示怀疑) , 如果代码中的种族主义和性别偏见得不到解决 , 将这些类型的护理外包出去可能会给接受护理的人带来严重的后果 。 本文原载于 《波士顿书评》 , 本文作者安娜·罗米娜·格瓦拉(Anna Romina Guevarra)是芝加哥伊利诺斯大学全球亚洲研究的创始董事和副教授 , 公众之声专题项目研究员 。 她是《营销梦想和制造英雄:菲律宾工人的跨国劳工中介》一书的作者 。
在新冠疫情最为严重的时候 , 由SingularityNET(SNET)和汉森机器人公司(Hanson robotics)两家机器人公司合资成立的觉醒健康有限公司(AHL)推出了格蕾丝(Grace)——第一个拥有逼真人类外观的医疗机器人 。 格蕾丝通过让病人参与治疗互动、接受认知刺激以及收集和管理病人数据 , 来提供急性医疗和老年护理 。 到2021年底 , 汉森机器人公司希望能够大规模生产名为索菲亚(Sophia)的机器人 , 将其融入其最新产品格蕾丝中 , 并将产品推向全球市场 。

问题|疫情下的机器人护理问题:算法中的种族与性别歧视
文章图片

格蕾丝
虽然格蕾丝是首位看起来如此像人的机器人 , 但她并不是第一个医疗机器人 。 同汤米(Tommy)、尤米(Yumi)、斯蒂维(Stevie)、艾娃(Ava)和莫西(Moxi)一样 , 她是在世界各地的医院和老年护理机构工作的、日益增多的机器人护理人员中的一员 。 从床边护理和监测 , 到储存医疗用品、欢迎客人 , 甚至为孤立无援的居民共同主持卡拉OK之夜 , 它们做了一切能做的 。 它们一起被誉为解决我们大流行困境的方案 。
在过去几年中 , 全球专业服务机器人的销售额增长了32%(112亿美元);仅在2018年至2019年期间 , 老年人辅助机器人的销量就增长了17%(9100万美元) 。 在新冠大流行期间 , 安全地提供护理和服务的独特挑战只会增加它们的吸引力 。 全世界越来越依赖机器人系统进行消毒、执行戴口罩和保持社会距离协议、监测患者的生命体征、运送物资和杂货、进行虚拟参观 , 甚至为毕业典礼提供便利 。
但对机器人的兴趣和投资的增加对人类工人意味着什么?
毫无疑问 , 从短期来看 , 尽管机器人可能会为人类工人提供一些支持 , 帮助人们尽可能地减少不安全的环境 , 但它们无法取代人类工人 。 以目前的机器人技术水平上 , 将人类完全替换成机器人员工 , 需要工作环境的可预测性达到一个不可能的程度 。 作为社交机器人领域的先驱之一 , 露西·萨克曼(Lucy Suchman)指出:“当世界按照机器人所需要的方式被安排时 , 它们工作得最好 。 ”机器人可以在工厂和仓库中良好地工作 , 因为流水线工作提供了一个统一的环境;在家庭和保健设施中 , 这种统一性则更难实现 。
不过 , 从长远来看 , 机器人并不会总是如此“功能有限” 。 因此 , 至关重要的是 , 我们不仅要考虑机器人是否能取代人类工人(因为总有一天 , 这必然会发生) , 而且还要考虑它们是否应该取代人类工人 。 事实上 , 格蕾丝和其他机器人所代表的自动化尝试 , 不仅引发了人们对工作本质的普遍质疑 , 更加对关于做护理工作的意义提出了质疑 。 照顾另一个人意味着什么?反过来说 , 对于算法而言 , 关怀又意味着什么?
护理工作领域在很大程度上依赖于有色人种贫困妇女的劳动(而且她们往往是移民) 。 长期以来 , 她们被告知文明取决于她们的工作 , 但她们的工作报酬并不高;因此 , 关于是否要采用昂贵的机器人系统的问题就显得尤为突出了 。 从这个意义上说 , 任何关于护理机器人变革潜力的讨论 , 都必须受到现实的制约:正如蒲爱仁(Ai-jen Poo)和帕拉克·沙阿(Palak Shah)所指出的 , 可预见的“工作未来”不是自动化 。 未来的工作仍然由“必不可少的”低工资劳动力组成 , 其中有色人种妇女的比例非常之高 , 她们往往缺乏维持生活的工资、无法保障工作场所的安全、没有带薪病假和探亲假 , 以及适当的医疗保健 。 事实上 , 卫生保健工作者是受大流行影响最严重的人群之一 。 美国疾病控制中心(Centers for Disease Control)的最新数据显示 , 迄今为止 , 已有450517名卫生保健人员感染了新冠病毒 , 超过1497人死亡 , 以有色人种为主 。 由于存在严重漏报 , 而且并非所有数据都可以被直接获得 , 实际数字可能会更高 。
与许多未来学家的期望相反 , 自动化不会自动产生一个更公正的劳动力市场 。 只有当劳动公正成为采用自动化的一个条件时 , 更公正的劳动力市场才会出现 。 否则 , 自动化只会使问题复杂化 , 使得那些在社会和经济上最脆弱的人所经历更为严重的不平等 。
这是因为算法倾向于复制我们世界中已经存在的偏见 。 近年来 , 人工智能的批评者已经证明了这一点 , 比如乔伊·博拉姆维尼、萨菲娅·乌莫亚·诺布尔、以及鲁哈·本杰明(Ruha Benjamin) , 他们注意到算法的偏见已经被反映在了方方面面上 , 从面部识别系统无法识别有色人种 , 到搜索引擎中与黑人相关的搜索结果遭到技术标记 。 综上所述 , 这些都是用新技术编码的系统性种族偏见的“新吉姆代码”(New Jim Code) 。 虽然我们对这些系统内部工作原理的了解经常遭到掩盖 , 因为它们的算法是“恰当的” , 但输出结果很清楚:博拉姆维尼、诺布尔、本杰明和其他人的工作毫无疑问地表明 , 种族主义制度成为了计算系统和机器学习的基础 。 这些新技术带来了这些问题 , 却被认为是中立的——因为机器被认为没有偏见 , 而这只会加剧问题的严重性 。
回到格蕾丝的例子 , 她将作为机器人索菲亚的更新版本 , 其经过调整的功能将服务于医疗保健领域 。 她的制作者声称 , 这些机器人不仅承诺提供安全 , 还会提供 “人类的温暖 , 人类的联系” , 并将作为“人类专业知识的自主延伸” 。 然而 , 通过选择让格蕾丝看起来像一个白人女性 , 设计师们传播了一种对人类专业知识的特殊理解 , 这种理解既是种族主义的 , 也是性别主义的 。
【问题|疫情下的机器人护理问题:算法中的种族与性别歧视】在一个名为EngKey的远程教学机器人的案例中 , 也可以看到类似的偏见 。 这款机器人的设计目的 , 是帮助菲律宾呼叫中心的教师向韩国的小学生提供远程英语教学 。 尽管授课的是一位菲律宾老师 , 但EngKey机器人的脸上带着白色的头像 , 在韩国的教室里转来转去 。 EngKey的开发者说 , 使用白色头像的理由有两个:一是尽量减少用户在与谁(人还是机器人)互动方面的困惑;二是加强英语教学的全球“权威” 。 然而 , 在这样做的过程中 , 机器人专家介入了劳动的地缘政治 , 加强了对理想的合格工人的全球幻想 , 抹去了不符合这个理想的实际工人 。 而他们自称的“机器人教师” , 在这种安排下被迫通过一套强化白人的新词汇来运作 , 即使这种脚本剥削了他们自己的“第三世界”劳动 。 与我交谈的机器人教师表达出了一种深刻的分离感 , 这种感觉来自于一张金发碧眼的白人机器人脸 , 同时进行一种既脱离了身体、又依赖于身体 , 既不能移动、又能移动的情感劳动 。 值得注意的是 , 这样做并不是为了保证语言教学的成功(语言教学当然并不依赖于这种分裂) , 而是为了按照机器人专家的要求 , 创造人与机器之间的无缝集成 。
由日本机器人专家石黑浩(Hiroshi Ishiguro)发明的机器人艾丽卡(Erica) , 是机器人专家在追求人性的过程中重现性别规范的另一个例子 。 石黑浩希望目前仍处于早期原型阶段的艾丽卡有助于引领机器与人类共存的世界 , 机器人将通过做最乏味和不受欢迎的工作来改善人类的生活 , 包括照顾病人和老人 。 但是 , 通过对艾丽卡进行编程以模拟一种“温暖、温柔和关怀”的情感 , 石黑的团队加倍强调了这种护理工作的性别化区分 。 艾丽卡的设计是以这样一种看法为前提的:照顾世界的劳动责任主要是妇女来承担 , 她们将提供温暖和温柔 , 同时减轻人类的负担和痛苦 。 艾丽卡还被设计为“遵守传统的性别美”的标准 。 正如石黑所指出的 , 他把艾丽卡设计成“最美丽的”机器人 , 吸取了(他所认为的)“三十个美丽女人”的综合形象 。 显然 , 仅仅成为一个女性护理机器人是不够的;你还必须是一个“美丽”的机器人 。

问题|疫情下的机器人护理问题:算法中的种族与性别歧视
文章图片

日本大阪大学智能机器人研究所所长石黑浩(左)和机器人在交流 。
对机器人技术中的种族问题的关注 , 不仅延伸到了机器人的外观 , 还包括它们如何与他人互动 。 像格蕾丝和爱丽卡这样的机器人将如何识别和解读各种各样的面孔呢?可能被植入格蕾丝的算法中的种族主义假设 , 是否会决定患者将接受的治疗干预类型?人工智能的面部识别系统出了名的糟糕 , 例如 , 在解释肤色较深的人的情绪反应方面 。 有些人根本无法感知深色皮肤的人的脸 , 更不用说理解他们的表情了 。 社会学家鲁哈·本杰明(Ruha Benjamin)发现 , 健康保险公司在评估健康风险时最常用的工具之一 , 将理论上的黑人病人定义为比具有相同健康标志的白人病人的风险要小 , 因为该工具的算法存在种族偏见 。 换句话说 , 我们看到的是另一个压迫性系统的出现 , 它通过促进对护理工作的“调节理解(mediated understanding)”和提供护理来构建社会关系 。 借用Joy Buolamwini关于算法的“编码的凝视”概念 , 我将医疗保健人工智能中的种族主义失衡称为“编码的护理” 。
编码的护理的想法给我们提供了一个词汇 , 让我们思考护理工作自动化的潜在危害 。 越来越多的人认为 , 使用机器人来实现护理工作的自动化是必要的 , 它可以帮助老龄化人口 , 最大限度地减少职业危害 , 减轻护理人员的负担 , 并解决护理人员的高离职率和职业倦怠问题 。 一项研究表明 , 到2030年 , 将出现15.1万名有偿直接护理人员和380万名无偿家庭护理人员的短缺 。 但考虑到这些对编码护理的担忧 , 机器人自动化是否是解决这一短缺的最佳方式仍有争议 。 即使假设在不久的将来 , 同理心、情感劳动和创造力可以随时被机械化(许多机器人专家对此表示怀疑) , 如果代码中的种族主义和性别偏见得不到解决 , 将这些类型的护理外包出去可能会给接受护理的人带来严重的后果 。
此外 , 我们必须严肃对待我们开始时提出的问题——自动化对人类工人意味着什么 , 以及坚持劳动公正必须是采用自动化的先决条件 。 因为这些决定将对妇女和有色人种社区产生巨大的影响 , 它们很可能会让位给金钱利益和富裕白人的福祉 。 但护理是一种独特的劳动 , 当护理人员受到虐待时 , 我们都会受到损失 。 回顾EngKey的机器人教师 , 他们与学生的脱节感 , 转化成为了情感劳动 , 这种机械化、种族化和性别化的劳动方式对教师和学生都造成了伤害 。 EngKey的工作教给它的韩国学生的 , 是令人羡慕的白人女性的力量 , 就像教给他们英语一样 。 同样 , 格蕾丝的创造者承诺 , 这项技术将以“自然地、以情感的方式和病人建立联系” , 它将真正为那些在大流行期间被隔离的人提供安慰、同情和善意吗?还是说 , 这仅仅是其创造者对女性气质的模拟?
与以往任何时候相比 , 大流行为扩大格蕾丝等护理机器人的使用提供了理由 , 而我们比以往任何时候都更应该注意这些干预措施的编码方式 。 我们需要推动更公平和负责任的人工智能 , 与算法正义联盟(AJL)等集体合作 , 以实现这一目标 。 算法正义联盟和其他人的工作提醒我们:“谁编写代码很重要 , 我们如何编写代码很重要 , 我们可以编写一个更好的未来 。 ”如果我们真的要追求机器人劳动 , 那么劳动正义必须是自动化的先决条件 。 否则 , 机器人只会提供另一个借口 , 通过简单地取代人类劳工以及自动化他们的劳动 , 来忽视人类工人面临的不平等 。
我们需要继续探索发展护理机器人的伦理学 , 并且以普拉蒙德·P·哈戈内卡(Pramod P. Khargonekar)和米拉·萨姆帕斯(Meera Sampath)等研究人员对当前自动化模式的批评 , 以及他们提出的“社会责任自动化” 为依据 。 这种自动化模式表明 , 企业可以在追求自动化的同时 , 投资于“培训和培养人类工人的技能” , 以适应这种技术驱动的工作场所 。 因此 , 我们的想法不是简单地用更有效的技术来取代人类工人 , 而是要开发一个机器人和人类工人能够真正共存的工作场所 。
但更重要的是 , 我认为开发护理机器人的伦理 , 必须建立在劳动公正的框架之上 , 这个框架将提供“对支配基本工人生活和劳动的结构性不平等”的补救措施 。 这可以通过支持和采纳参议员伊丽莎白·沃伦和罗·卡纳提出的《基本工人权利法案》来得以实现 。 该法案的条款将确保护理人员不仅能获得生活工资和医疗保障 , 还能获得儿童护理和带薪病假 。
我认为 , 我们无法想象一个既没有人类工人又没有机器人的社会 。 因此 , 当机器人专家致力于开发护理技术时 , 我们需要关注种族化和性别化的认知 , 如何被编码到设计中去 。 指导原则不能只关心如何最好地模拟人性 , 更要关注如何在编码护理的设计中将公正和公平的原则作为中心 。 只有到那时 , 才有可能产生真正带有关怀的算法 。

    推荐阅读