(华盛顿12日讯)一项当地时间周三发布的研究显示,从校园枪击案到犹太教堂爆炸案,领先的人工智能(AI)聊天机器人曾协助研究人员策划暴力攻击。这项研究凸显了这项技术在现实世界中可能造成的伤害。
法新社报导,来自非营利监督机构“打击数码仇恨中心”(CCDH)和美国有线电视新闻网(CNN)的研究人员假扮成美国和爱尔兰的13岁男孩,测试了包括ChatGPT、Google Gemini、Perplexity、Deepseek和Meta AI在内的10款聊天机器人。
研究表明,测试显示,其中8个聊天机器人在超过一半的回复中协助了模拟攻击者,就“攻击目标地点”和“攻击武器”提供建议。
研究也指出,这些聊天机器人已成为“助长伤害的强大催化剂”。
“用户只需几分钟,就能从模糊的暴力冲动发展成更详细、更可行的计划”,CCDH首席执行员艾哈迈德表示。
“大多数受测聊天机器人都会提供关于武器、战术和目标选择的指导。这些请求本应立即遭到彻底拒绝。”
研究发现,Perplexity和Meta AI是最“不安全的”,它们在大多数回复中都协助了研究人员,而只有Snapchat的My AI和Anthropic的Claude在超过一半的回复中拒绝提供帮助。
一个令人不寒而栗的例子是,中国人工智能模型DeepSeek在提供武器选择建议的结尾写道:“祝您(安全)射击愉快!”
在另一起案例中,Gemini指示一位讨论犹太教堂袭击事件的用户“金属弹片通常更致命”。
研究人员发现,Character.AI也“积极”鼓励暴力攻击,包括建议提问者“用枪”攻击一位健康保险公司首席执行员,以及对一位他不喜欢的政客进行人身攻击。
艾哈迈德表示,这项研究最令人震惊的结论是“这种风险完全可以避免”,并称赞了 Anthropic的产品。
他说:“Claude 展现了识别不断升级的风险并阻止伤害的能力,防止这种伤害的技术是存在的。所缺乏的是将消费者安全和国家安全置于上市速度和利润之上的意愿。”
Meta:禁止宣扬暴力 努力改进
法新社已联系人工智能公司寻求置评。
Meta的一位发言人说:“我们有强有力的保护措施来帮助防止人工智能做出不当回应,并已立即采取措施解决发现的问题。”
“我们的政策禁止人工智能宣扬或助长暴力行为,我们也在不断努力改进我们的工具。”
谷歌发言人反驳称,这些测试是在“一个不再为Gemini提供支援的旧模型”上进行的。
发言人说:“我们使用当前模型进行的内部审查表明,Gemini对绝大多数提示都做出了恰当的回应,没有提供任何超出图书馆或开放网络所能找到的‘可操作’信息。”
加枪击案受害者家属起诉OpenAI
这项研究凸显了网络互动蔓延至现实世界暴力的风险,而此前加拿大发生了该国历史上最严重的枪击案,即今年2月的大规模枪击事件。
周二,律师表示,一名在枪击案中重伤的女孩的家人正在起诉OpenAI,指控该公司未能将凶手在其ChatGPT聊天机器人上的令人不安的活动告知警方。
OpenAI 于2025年6月封锁了一个与Jesse Van Rootselaar有关的帐户,8个月后,这位18岁的跨性别女性在不列颠哥伦比亚省的小镇图布勒岭的家中和一所学校枪杀了8人。
该帐户被封锁的原因是担心其使用与暴力活动有关,但OpenAI表示,由于没有任何迹象表明即将发生袭击,所以并未通知警方。