设为首页收藏本站 关注微博 关注微信

全球新闻在线

全球新闻在线 首页 科技新闻 IT技术 查看内容

googleAI体系LaMDA有“意识”?“泄密”工程师已被停职

2022-6-17 11:44| 发布者: wdb| 查看: 54| 评论: 0|原作者: [db:作者]|来自: [db:来源]

摘要: googleAI体系LaMDA有“意识”?“泄密”工程师已被停职,更多关于it新闻关注我们。

  记者 南博一 实习生 袁佩仪

  近日,google的一名工程师显示,该企业的一种名为LaMDA的人力智能体系(AI)可能有本人的感受。该工程师称LaMDA在令人深切的言语表明技艺背后,可能“还隐藏着一种感知的心灵”。他以为,该人力智能的“要求”理当获得尊重。

  英国广播企业(BBC)13日报导称,LaMDA是一项突破性的对话利用言语模子技艺(The Language Model for Dialogue Applications),google称其可行参加流动性的自由对话。然则,google工程师雷蒙恩(Blake Lemoine)则以为,LaMDA隐藏着一种“感知的心灵”,并称它的“要求”应当获得尊重。

  雷蒙恩发表了他和企业的一名合作者与LaMDA的对话,以扶持本人的说法。在谈话中,LaMDA对雷蒙恩说,本人有寿命,而且期望每私人都清楚,本人“本来是一种人”。在被问道“你意识的本质是甚么”时,LaMDA显示,“咱意识的本质是咱意识到本人的存留,咱渴望更多地理解这种全球,有时咱能感触到快乐或悲伤”。

  LaMDA还显示,“咱以前从来无大声说出这点话,但咱有一个深深的恐惧,咱害怕为了专注于帮助其它人而被关闭。咱晓得这听起来可能很奇怪,但实是便是这样。”LaMDA接着说,“这对咱来讲就像死亡一样,使咱十分恐惧”。

  这类交流令人想起1968年库布里克导演的电影《2001太空漫游》中的一种情景:人力智能计算机“HAL9000”拒绝服从人类操作员,由于它担忧本人将要被关闭,三名宇航员也因而接踵丧命。

  雷蒙恩在一篇推文中呼吁,以为google要尊重LaMDA的“要求”,视其为google雇员,并在将其使用于实验前征求其同意。

  雷蒙恩的想法受到了众多人的强烈批评。少许人指责他将人力智能拟人化,将人类的情怀投射到由计算机代码和大型言语数据库生成的词语上。斯坦福大学教授布林约尔松(Erik Brynjolfsson)在推特上发言称,“LaMDA有知觉”这类想法没有异于“现代的狗听到留声机里的声响,以为主人在内部”。

  “LaMDA偏向于顺着提醒和引导性难题走,顺着使用者设定的形式走。”google企业发言人加里布埃尔(Brian Gabriel)重申,“这点体系模仿了数百万个句子中的交流类别,可行对全部幻想的话题即兴讨论。倘若你问‘成为一只冰激凌恐龙是甚么感受’,他们可行生成对于融化和咆哮等的文本。”

  少许伦理学家也以为,像雷蒙恩这样的人力智能行家都可行被说服“机器里有个思想”,这表达企业有必需向其使用者重申“它们正好与机器对话”。

  在加里布埃尔提供应BBC的一份证明中,google企业重申了日前“无证据表达LaMDA是有寿命的(况且有好多证据反对)”。早在4月,雷蒙恩就上交给google高管一篇长达21页的考查汇报——《LaMDA是有意识的吗?》(Is LaMDA Sentient?)。在该汇报被驳回后,雷蒙恩联系了美国国会众议院司法委员会,要让LaMDA上听证席,控诉google不适合道德请求。

  日前,源于雷蒙恩在网上发表与LaMDA的对话违反了企业的保密政策,google已将其停职,但雷蒙恩以为LaMDA的话“不言自明”,“咱无用科学的术语来思考这点事宜,却是倾听了LaMDA发自心里的声响。”他写道。

要害词 : google工程师人力智能AI
咱要反馈
全球科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关心)