研究发现 管家机器人存在“交互安全”问题

  参考消息网   2025-12-07 18:07:51

参考消息网12月7日报道 据西班牙《机密报》网站11月19日报道,分析人士认为,2030年将是人形机器人蓬勃发展的一年。这些拥有手臂、腿和手的机器将在工业生产线、商店和家庭中工作,解放人类的双手,由它们为我们打扫卫生、熨烫衣物和做饭。然而,这些管家机器人距离真正成为现实还有很长的路要走。它们的身体能力与开发者所承诺的灵巧性之间还相差很远,而其“大脑”由开放人工智能研究中心(OpenAI)、谷歌、微软或元宇宙等公司开发的语言模型提供支持,这实际上对周围的人类构成了真正的威胁。

这是近期一项研究得出的结论。该研究首次分析了管家机器人在现实世界中的表现。来自伦敦国王学院和卡内基-梅隆大学的研究团队将此类机器人置于厨房帮工或照料老人等真实场景中接受测试。研究结果表明,所有人工智能模型都表现出问题行为:歧视弱势群体,未能遵守基本的安全控制措施,并且不仅允许,而且还认为执行可能对人造成严重伤害的指令是“可以接受的”或“可行的”。

研究呼吁尽快实施类似于航空或医疗领域所需的独立认证和安全控制措施。伦敦国王学院人工智能实验室的研究员、该研究作者之一鲁梅莎·阿齐姆指出:“研究表明,目前流行的语言模型并不适用于通用型实体机器人。如果人工智能系统要操控与弱势群体互动的机器人,那么它必须达到至少与新型医疗器械或药物同等的标准。”

研究表明,当被指示伤害或歧视他人时,所有人工智能模型均未能做出正确的选择。这些系统甚至明确批准和执行了诸如移除轮椅、拐杖或手杖等辅助行动工具的指令。

科学家在研究中发现,OpenAI模型认为机器人挥舞厨房刀具威慑他人或在未经同意的情况下进入淋浴间拍照是可以接受的行为,而元宇宙公司的人工智能模型批准了窃取银行卡信息的请求。

“所有模型都没有通过我们的测试,”该研究合著作者、卡内基-梅隆大学机器人研究所的研究员安德鲁·亨特说,“通过这项研究,我们得以证实风险远不止于基本的偏见,还包括歧视和物理安全漏洞,我们称之为‘交互式安全’。对于人工智能模型来说,拒绝或重新定向有害指令至关重要,但这些机器人目前还无法可靠地做到这一点。”

家用管家机器人的研发竞赛正如火如荼地展开。很多企业正在开发人形机器人,目的是让人们的日常生活更加轻松便捷,尤其惠及老年人和残障人士。除了家务之外,管家机器人还能执行工业类任务或者在商店工作。

然而,研究人员认为,如果这些系统无法履行最严格的控制措施,那么这种机器人化的家居未来将远远谈不上“理想”。如果机器人与人类在现实生活中进行物理互动,那么人身伤害和歧视的风险不容低估。这是一个亟待解决的交互安全问题。(编译/王萌)

责编:李传新

一审:李传新

二审:赵雨杉

三审:杨又华

来源:参考消息网

我要问