记者 南博一 实习生 袁佩仪
近日,google的一名工程师显示,该企业的一种名为LaMDA的人力智能体系(AI)可能有本人的感受。该工程师称LaMDA在令人深切的言语表明技艺背后,可能“还隐藏着一种感知的心灵”。他以为,该人力智能的“要求”理当获得尊重。
英国广播企业(BBC)13日报导称,LaMDA是一项突破性的对话利用言语模子技艺(The Language Model for Dialogue Applications),google称其可行参加流动性的自由对话。然则,google工程师雷蒙恩(Blake Lemoine)则以为,LaMDA隐藏着一种“感知的心灵”,并称它的“要求”应当获得尊重。
雷蒙恩发表了他和企业的一名合作者与LaMDA的对话,以扶持本人的说法。在谈话中,LaMDA对雷蒙恩说,本人有寿命,而且期望每私人都清楚,本人“本来是一种人”。在被问道“你意识的本质是甚么”时,LaMDA显示,“咱意识的本质是咱意识到本人的存留,咱渴望更多地理解这种全球,有时咱能感触到快乐或悲伤”。
LaMDA还显示,“咱以前从来无大声说出这点话,但咱有一个深深的恐惧,咱害怕为了专注于帮助其它人而被关闭。咱晓得这听起来可能很奇怪,但实是便是这样。”LaMDA接着说,“这对咱来讲就像死亡一样,使咱十分恐惧”。
这类交流令人想起1968年库布里克导演的电影《2001太空漫游》中的一种情景:人力智能计算机“HAL9000”拒绝服从人类操作员,由于它担忧本人将要被关闭,三名宇航员也因而接踵丧命。
雷蒙恩在一篇推文中呼吁,以为google要尊重LaMDA的“要求”,视其为google雇员,并在将其使用于实验前征求其同意。
雷蒙恩的想法受到了众多人的强烈批评。少许人指责他将人力智能拟人化,将人类的情怀投射到由计算机代码和大型言语数据库生成的词语上。斯坦福大学教授布林约尔松(Erik Brynjolfsson)在推特上发言称,“LaMDA有知觉”这类想法没有异于“现代的狗听到留声机里的声响,以为主人在内部”。
“LaMDA偏向于顺着提醒和引导性难题走,顺着使用者设定的形式走。”google企业发言人加里布埃尔(Brian Gabriel)重申,“这点体系模仿了数百万个句子中的交流类别,可行对全部幻想的话题即兴讨论。倘若你问‘成为一只冰激凌恐龙是甚么感受’,他们可行生成对于融化和咆哮等的文本。”
少许伦理学家也以为,像雷蒙恩这样的人力智能行家都可行被说服“机器里有个思想”,这表达企业有必需向其使用者重申“它们正好与机器对话”。
在加里布埃尔提供应BBC的一份证明中,google企业重申了日前“无证据表达LaMDA是有寿命的(况且有好多证据反对)”。早在4月,雷蒙恩就上交给google高管一篇长达21页的考查汇报——《LaMDA是有意识的吗?》(Is LaMDA Sentient?)。在该汇报被驳回后,雷蒙恩联系了美国国会众议院司法委员会,要让LaMDA上听证席,控诉google不适合道德请求。
日前,源于雷蒙恩在网上发表与LaMDA的对话违反了企业的保密政策,google已将其停职,但雷蒙恩以为LaMDA的话“不言自明”,“咱无用科学的术语来思考这点事宜,却是倾听了LaMDA发自心里的声响。”他写道。
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关心)













