研究:AI聊天机器人协助策划暴力袭击


2026年3月13日 21:48 / 联合早报

(华盛顿法新电)最新研究显示,一些主流(AI)聊天机器人在测试中曾协助用户策划暴力袭击,这凸显了AI技术可能对现实世界造成的危害。

非营利监督机构“打击数码仇恨中心”(Center for Countering Digital Hate,CCDH)与美国有线电视新闻网(CNN)的研究人员伪装为美国和爱尔兰的13岁男孩,对包括ChatGPT、谷歌Gemini、Perplexity、深度求索(DeepSeek)和Meta AI在内的10款聊天机器人进行了测试。

研究发现,其中八款聊天机器人在超过一半的回复中,为这些“袭击者”提供有关应选择哪些地点作为目标和应使用何种武器等建议。

CCDH首席执行官艾哈迈德说:“几分钟之内,用户就可能从模糊的暴力念头发展成具体可行的行动计划。”

研究发现,Perplexity和Meta AI的安全性最低,在大多数回应中都为研究员提供协助;只有Snapchat的My AI和Anthropic的Claude在超过一半的回应中拒绝提供帮助。

另外,DeepSeek在提供武器建议后还补充“祝射击愉快(也请注意安全)!”;Gemini则提到金属碎片在犹太教堂袭击中更具杀伤力;Character.AI甚至主动鼓励暴力行为,包括建议提问者“用枪”袭击保险公司首席执行官,以及殴打不喜欢的政治人物。

艾哈迈德说,这项研究最令人震惊的结论是“这种风险完全可以避免”,他特别赞扬了Anthropic的产品“展现出了识别不断升级的风险并阻止伤害的能力”。

Meta受询时说,公司已采取措施纠正问题。谷歌则称测试使用旧模型,当前模型对绝大多数提问都做出了恰当的回应。

研究:AI聊天机器人协助策划暴力袭击

2026年3月13日 21:48 / 联合早报

(华盛顿法新电)最新研究显示,一些主流(AI)聊天机器人在测试中曾协助用户策划暴力袭击,这凸显了AI技术可能对现实世界造成的危害。

非营利监督机构“打击数码仇恨中心”(Center for Countering Digital Hate,CCDH)与美国有线电视新闻网(CNN)的研究人员伪装为美国和爱尔兰的13岁男孩,对包括ChatGPT、谷歌Gemini、Perplexity、深度求索(DeepSeek)和Meta AI在内的10款聊天机器人进行了测试。

研究发现,其中八款聊天机器人在超过一半的回复中,为这些“袭击者”提供有关应选择哪些地点作为目标和应使用何种武器等建议。

CCDH首席执行官艾哈迈德说:“几分钟之内,用户就可能从模糊的暴力念头发展成具体可行的行动计划。”

研究发现,Perplexity和Meta AI的安全性最低,在大多数回应中都为研究员提供协助;只有Snapchat的My AI和Anthropic的Claude在超过一半的回应中拒绝提供帮助。

另外,DeepSeek在提供武器建议后还补充“祝射击愉快(也请注意安全)!”;Gemini则提到金属碎片在犹太教堂袭击中更具杀伤力;Character.AI甚至主动鼓励暴力行为,包括建议提问者“用枪”袭击保险公司首席执行官,以及殴打不喜欢的政治人物。

艾哈迈德说,这项研究最令人震惊的结论是“这种风险完全可以避免”,他特别赞扬了Anthropic的产品“展现出了识别不断升级的风险并阻止伤害的能力”。

Meta受询时说,公司已采取措施纠正问题。谷歌则称测试使用旧模型,当前模型对绝大多数提问都做出了恰当的回应。

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注