设为首页收藏本站 关注微博 关注微信

全球新闻在线

全球新闻在线 首页 文化资讯 教育知识 查看内容

疫情下的机器人护理难题:算法中的种族与性别歧视

2021-8-16 11:52| 发布者: wdb| 查看: 61| 评论: 0|原作者: [db:作者]|来自: [db:来源]

摘要: 疫情下的机器人护理难题:算法中的种族与性别歧视,更多关于教育资讯关注我们。
编者按:随着新冠对全球国民的健康平安形成了庞大威胁,科技企业将眼光投向了能够平安地为病人和老年人提供护理的机器人开发范畴。可是,看似领先进步且没有害的人力智能护理机器人可能蕴含着开发者自身的性别和种族偏见。护理范畴十分依赖于有色人种贫困妇女的劳动,考量到机器人护理的高昂消费,未来的事业依然由“必不可少的”低工资劳能源构成。她们常常缺乏保持生活的工资、没有办法保证事业场地的平安、无带薪病假和探亲假,以及适当的医疗保健。然则,从运用白人女性的造型作为格蕾丝的“面孔”,到运用白人的外观抹去EngKey机器人背后的“菲律宾英语教师”,再到被设置为“美丽女性”的护理机器人爱丽卡,这点例子揭露了设置师的认识:照顾全球的劳动责任最重要的应当由妇女来承受,而“白人”教师与护理人士则要优于其它种族的事业人士。据统算,到2030年,有偿与没有偿的护理人士数量都将面对庞大空缺;可是,机器人自动化能否是解决这一短缺的最好形式仍有争议。即便假设在一会儿的将来,同理心、情怀劳动和缔造力可行随时被机械化(众多机器人行家对此显示怀疑),假如代码中的种族主义和性别偏见得不到解决,将这点类别的护理外包出来可能会给接纳护理的人带来惨重的后果。本文原载于《波士顿书评》,本文作者安娜·罗米娜·格瓦拉(Anna Romina Guevarra)是芝加哥伊利诺斯大学全世界亚洲探讨的创始董事和副教授,公众之声主题名目探讨员。她是《营销梦想和生产英雄:菲律宾工人的跨国劳工中介》一书的作者。在新冠疫情最为惨重的时刻,由SingularityNET(SNET)和汉森机器人企业(Hanson robotics)两家机器人企业合资成立的觉醒健康局限企业(AHL)公布了格蕾丝(Grace)——第一种具有逼真人类外貌的医疗机器人。格蕾丝经过让病人参加治疗互动、接纳认知刺激以及收集和治理病人口据,来提供急性医疗和老年护理。到2021年底,汉森机器人企业期望能够大范围制造名为索菲亚(Sophia)的机器人,将其融入其全新产物格蕾丝中,并将产物推向全世界市场。

格蕾丝

尽管格蕾丝是首位看起来如许像人的机器人,但她其实不是第一种医疗机器人。同汤米(To毫米y)、尤米(Yumi)、斯蒂维(Stevie)、艾娃(Ava)和莫西(Moxi)一样,她是在全球各地的医院和老年护理机构事业的、日渐增多的机器人护理人士中的一员。从床边护理和监测,到库存医疗使用物品、欢迎客人,甚而为孤立没有援的居民一同主办卡拉OK之夜,他们做了一切能做的。他们一同被誉为解决咱们大盛行困境的方案。在往日几年中,全世界不业余效劳机器人的出售额增添了32%(112亿美元);仅在2018年至2019年时期,老年人协助机器人的销售数量就增添了17%(9100万美元)。在新冠大盛行时期,平安地提供护理和效劳的特异挑战只有会增添他们的迷惑力。全球越来越依赖机器人体系发展消毒、执行戴口罩和维持社会距离合同、监测患者的寿命体征、运送物资和杂货、发展虚拟游览,甚而为毕业典礼提供便捷。但对机器人的兴趣和投资的增添对人类工人意指着甚么?全无疑问,从短期来看,虽然机器人可能会为人类工人提供少许扶持,帮助大家尽可能地降低不平安的环境,但他们没有办法取代人类工人。以日前的机器人技艺水准上,将人类十足替换成机器人士工,须要事业环境的可预测性达到一种不可能的水平。作为社交机器人范畴的先驱之一,露西·萨克曼(Lucy Suchman)指明:“当全球依照机器人所须要的形式被布置时,他们事业得最佳。”机器人可行在工厂和仓库中良好地事业,由于流水线事业提供了一种同一的环境;在家族和保健设备中,这类同一性则更难实现。只是,从长远来看,机器人其实不会总是如许“功效局限”。因而,至关要紧的是,咱们不但要考量机器人能否能取代人类工人(由于总有一天,这势必会产生),况且还要考量他们能否应当取代人类工人。实是上,格蕾丝和其它机器人所代表的自动化尝试,不但激发了大家对事业本质的普及质疑,愈加对对于做护理事业的意义提议了质疑。照顾另一种人意指着甚么?反过来讲,关于算法而言,关怀又意指着甚么?护理事业范畴在相当大水平上依赖于有色人种贫困妇女的劳动(况且她们常常是移民)。长久以来,她们被告知文明取决于她们的事业,但她们的事业报酬其实不高;因而,对于能否要采纳不便宜的机器人体系的难题就显得尤为突出了。从这种意义上说,全部对于护理机器人变革潜力的讨论,都必需遭到现实的制约:正如蒲爱仁(Ai-jen Poo)和帕拉克·沙阿(Palak Shah)所指明的,可预见的“事业未来”非是自动化。未来的事业依然由“必不可少的”低工资劳能源构成,此中有色人种妇女的比重十分之高,她们常常缺乏保持生活的工资、没有办法保证事业场地的平安、无带薪病假和探亲假,以及适当的医疗保健。实是上,卫生保健事业者是受大盛行作用最惨重的人群之一。美国疾病操控中心(Centers for Disease Control)的全新数据显现,迄今为止,已有450517名卫生保健人士感染了新冠病毒,超越1497人死亡,以有色人种为主。源于存留惨重漏报,况且却非全部数据都可行被干脆得到,实质数字可能会更高。与众多未来学家的希望相反,自动化不会自动发生一种更公正的劳能源市场。唯有当劳动公正成为采纳自动化的一种要求时,更公正的劳能源市场才会显露。不然,自动化只有会使难题繁杂化,让得那一些在社会和经济上最脆弱的人所经验更为惨重的不平等。这是由于算法偏向于复制咱们全球中曾经存留的偏见。近年来,人力智能的批评者曾经声明了这一丝,例如乔伊·博拉姆维尼、萨菲娅·乌莫亚·诺布尔、以及鲁哈·本杰明(Ruha Benjamin),它们注意到算法的偏见曾经被反应在了方方面面子上,从面部辩别体系没有办法辩别有色人种,到搜索引擎中与黑人相干的搜索结果受到技艺标志。综上所述,这点皆是用新技艺编码的体系性种族偏见的“新吉姆代码”(New Jim Code)。尽管咱们对这点体系里面事业原理的理解经常受到掩藏,由于他们的算法是“恰当的”,但输出结果很明白:博拉姆维尼、诺布尔、本杰明和其它人的事业全无疑问地表达,种族主义制度成为了计算体系和机器学习的根基。这点新技艺带来了这点难题,却被以为是中立的——由于机器被以为无偏见,而这只有会加重难题的惨重性。回到格蕾丝的例子,她将作为机器人索菲亚的革新版本,其通过调度的功效将效劳于医疗保健范畴。她的制作者声称,这点机器人不但承诺提供平安,还会提供 “人类的温暖,人类的联系”,并将作为“人类不业余常识的自助拉伸”。然则,经过抉择让格蕾丝看起来像一种白人女性,设置师们流传了一个对人类不业余常识的特殊了解,这类了解既是种族主义的,也是性别主义的。在一种名为EngKey的远程教学机器人的案例中,也可行见到相似的偏见。该款机器人的设置目的,是帮助菲律宾呼叫中心的教师向韩国的小弟子提供远程英语教学。虽然授课的是一位菲律宾老师,但EngKey机器人的脸上带着白色的头像,在韩国的教室里转来转去。EngKey的开发者说,运用白色头像的理由有两个:一是尽量降低使用者在与谁(人仍是机器人)互动方面的困惑;二是增强英语教学的全世界“权威”。然则,在这样做的进程中,机器人行家介入了劳动的地缘政治,增强了对理想的及格工人的全世界幻想,抹去了不适合这种理想的实质工人。而它们自称的“机器人教师”,在这类布置下被强迫经过一套强化白人的新词汇来运作,即便这类脚本剥削了它们本人的“第三全球”劳动。与咱交谈的机器人教师表明出了一个深切的分离感,这类感受来源于一张金发碧眼的白人机器人脸,同一时间发展一个既脱离了身体、又依赖于身体,既不行搬动、又能搬动的情怀劳动。值得注意的是,这样做其实不是为了确保言语教学的成功(言语教学自然其实不依赖于这类断裂),却是为了依照机器人行家的请求,缔造人与机器之中的没有缝集成。由日本机器人行家石黑浩(Hiroshi Ishiguro)发明的机器人艾丽卡(Erica),是机器人行家在追求人性的进程中重现性别规范的另一种例子。石黑浩期望日前仍处于早期原型阶段的艾丽卡有助于引领机器与人类共存的全球,机器人将经过做最乏味和不受欢迎的事业来改进人类的生活,包括照顾病人和老人。可是,经过对艾丽卡发展编程以模拟一个“温暖、温柔和关怀”的情怀,石黑的团队加倍重申了这类护理事业的性别化区别。艾丽卡的设置所以这样一个观点为前提的:照顾全球的劳动责任最重要的是妇女来承受,她们将提供温暖和温柔,同一时间减少人类的压力和痛苦。艾丽卡还被设置为“遵守惯例的性别美”的准则。正如石黑所指明的,他把艾丽卡设置成“最美丽的”机器人,吸取了(他所以为的)“三十个美丽女人”的概括造型。赫然,仅仅成为一种女性护理机器人是不够的;你还必需是一种“美丽”的机器人。

日本大阪大学智能机器人探讨所所长石黑浩(左)和机器人在交流。

对机器人技艺中的种族难题的关心,不但拉伸到了机器人的外貌,还包括他们如何与他人互动。像格蕾丝和爱丽卡这样的机器人将如何辩别和解读各式各类的面孔呢?可能被植入格蕾丝的算法中的种族主义假设,能否会打算患者将接纳的治疗干预类别?人力智能的面部辩别体系出了名的糟糕,比如,在解释肤色较深的人的情绪反映方面。有些人基本没有办法感知深色皮肤的人的脸,更不用说了解它们的表情了。社会学家鲁哈·本杰明(Ruha Benjamin)发觉,健康保障企业在估价健康风险时最经常使用的用具之一,将理论上的黑人病人定义为比具备相同健康标记的白人病人的风险要小,由于该用具的算法存留种族偏见。换句话说,咱们见到的是另一种压迫性体系的显露,它经过推进对护理事业的“调节了解(mediated understanding)”和提供护理来建立社会关连。借用Joy Buolamwini对于算法的“编码的凝视”概念,咱将医疗保健人力智能中的种族主义失衡称为“编码的护理”。编码的护理的想法给咱们提供了一种词汇,让咱们思考护理事业自动化的潜在危害。越来越多的人以为,运用机器人来实现护理事业的自动化是必需的,它可行帮助老龄化人数,第一大限制地降低职业危害,减少护理人士的压力,并解决护理人士的高离职率和职业倦怠难题。一项探讨表达,到2030年,将显露15.1万名有偿干脆护理人士和380万名没有偿家族护理人士的短缺。但考量到这点对编码护理的担心,机器人自动化能否是解决这一短缺的最好形式仍有争议。即便假设在一会儿的将来,同理心、情怀劳动和缔造力可行随时被机械化(众多机器人行家对此显示怀疑),假如代码中的种族主义和性别偏见得不到解决,将这点类别的护理外包出来可能会给接纳护理的人带来惨重的后果。另外,咱们必需严肃对待咱们最初时提议的难题——自动化对人类工人意指着甚么,以及坚持劳动公正必需是采纳自动化的先决要求。由于这点打算将对妇女和有色人种社区发生庞大的作用,他们很可能会让位给金钱利益和富裕白人的福祉。但护理是一个特异的劳动,当护理人士遭到虐待时,咱们都会遭到损耗。回顾EngKey的机器人教师,它们与弟子的脱节感,转化成为了情怀劳动,这类机械化、种族化和性别化的劳动形式对教师和弟子都形成了伤害。EngKey的事业教给它的韩国弟子的,是令人羡慕的白人女性的力量,就像教给它们英语一样。同样,格蕾丝的缔造者承诺,这项技艺将用“当然地、以情怀的形式和病人构建联系”,它将真实为那一些在大盛行时期被隔离的人提供安慰、同情和善意吗?仍是说,这仅仅是其缔造者对女性气质的模拟?与过去全部时刻比较,大盛行为扩大格蕾丝等护理机器人的运用提供了理由,而咱们比过去全部时刻都更应当注意这点干预举措的编码形式。咱们须要推进更公平和负责任的人力智能,与算法正义联盟(AJL)等集体合作,以实现这一指标。算法正义联盟和其它人的事业提示咱们:“谁编写代码很要紧,咱们如何编写代码很要紧,咱们可行编写一种更没有问题未来。”假如咱们真的要追求机器人劳动,那末劳动正义必需是自动化的先决要求。不然,机器人只有会提供另一种借口,经过容易地取代人类劳工以及自动化它们的劳动,来忽视人类工人面对的不平等。咱们须要接着探寻进行护理机器人的伦理学,而且以普拉蒙德·P·哈戈内卡(Pramod P. Khargonekar)和米拉·萨姆帕斯(Meera Sampath)等探讨人士对当前自动化形式的批评,以及它们提议的“社会责任自动化” 为根据。这类自动化形式表达,公司可行在追求自动化的同一时间,投资于“培训和培育人类工人的技巧”,以适应这类技艺驱动的事业场地。因而,咱们的想法非是容易地用更有用的技艺来取代人类工人,却是要开发一种机器人和人类工人能够真实共存的事业场地。但更要紧的是,咱以为开发护理机器人的伦理,必需构建在劳动公正的构架之上,这种构架将提供“对支配根本工人生活和劳动的构造性不平等”的补救举措。这可行经过扶持和采用参议员伊丽莎白·沃伦和罗·卡纳提议的《根本工人权利法案》来临以实现。该法案的条款将保证护理人士不但能得到生活工资和医疗保证,还能得到孩童护理和带薪病假。咱以为,咱们没有办法想象一种既无人类工人又无机器人的社会。因而,当机器人行家着力于开发护理技艺时,咱们须要关心种族化和性别化的认知,如何被编码到设置中去。指导准则不行只关注如何最佳地模拟人性,更要关心如何在编码护理的设置中将公正和公平的准则作为中心。唯有到当时,才有可能发生真实带相关怀的算法。