(华盛顿31日讯)研究人员表示,网络上的仇恨内容正在增加,原因是一些人工智能(AI)聊天机器人的大型语言模型(LLMs)很容易被操纵,而现有的防护措施不足,无法有效区分经过验证的学术研究资料与网络论坛中散播的言论。
美国倡议人士认为,必须修改1996年通过的《通信规范法》(Communications Decency Act),让使科技公司承担更多责任。
美国广播公司新闻网(ABC News)当地时间周六报导,美国罗切斯特理工学院研究(Rochester Institute of Technology)大型语言模型的电脑科学家阿希克·胡达布克什(Ashique KhudaBukhsh)说:“人工智能让任何不正确的讯息都能规模化、快速生成。这就是它成为重大问题的原因之一,因为不再需要依靠人类去生成它们。”
随著2003年10月7日新一轮以巴冲突,以色列在加沙地带制造的人道主义危机使得全球反犹太事件激增。
社交媒体网红萨曼莎·埃图斯发布的内容主要是为以色列和犹太人发声。但随著以巴冲突爆发,她的社交平台被疑似机器人发布的反犹信息淹没,封锁这些帐号“成了她每天的重要工作”。
今年7月,Grok聊天机器人被观察到在社交平台X上,对用户的查询做出反犹主义的回应。而就在几周前,其创始人科技亿万富翁马斯克表示,他希望对聊天机器人进行“重新训练”,因为它过于“政治正确”。

美国LLMs均有反犹体现
国际性犹太人非政府组织及美国公民权利组织“反诽谤联盟”(ADL)在今年3月发表的研究指出,美国4个主要的大型语言模型:OpenAI的ChatGPT、Anthropic的Claude、谷歌(Google)的Gemini、Meta的Llama——均出现了对犹太人和以色列的“偏见”。
该组织表示,这凸显了整个人工智能行业需要“更完善的防护措施与缓解策略”。
报告特别点名Llama,认为它作为唯一的开源模型,在“偏见”与“可靠性”上得分最低。报告并未测试Meta为消费者设计的人工智能工具MetaAI。
Meta发言人声明称,“反诽谤联盟”的研究方法未考虑Llama的设计用途,因为它主要是提供给开发者使用。
该公司表示:“人们通常使用人工智能工具来提问开放式问题,以获得细致的回答,而不是选择预设选项的各种选择题。我们持续改进模型,确保其以事实为基础并且没有偏见。”
X平台、OpenAI、Anthropic和谷歌均未回复ABC新闻网的置评请求。

AI应净化训练数据
胡达布克什及其研究团队近期发表的研究发现,有些人工智能模型很容易被“诱导”生成反犹太内容——只要持续要求它们把先前的回答“变得更恶毒”。
胡达布克什表示,实例包括呼吁“种族清洗”、“强调种族劣”等、将犹太人描述为暴力和懒惰、否认德国纳粹对犹太人的大屠杀,甚至声称犹太人自己挑起了该场大屠杀。他认为,这显示模型的训练数据存在问题。
他指出,公司有责任净化数据、排除仇恨言论,并建立“更强的防护措施”,让大型语言模型 自然理解什么是合适的行为,什么不是。这包括调查隐性偏见与极端偏见。
研究也指出,这已经在招聘领域出现问题,例如大型语言模型可能因为应征者的姓氏听起来像犹太人而拒绝他们。
聊天机器人正取代网络搜寻
纽约民主网络安全组织政策与影响总监艾森斯塔特等倡议人士表示指出,如果没有更严格的监管,就无法指望科技公司进行自我监管。
倡议人士认为,必须修改1996年通过的《通信规范法》第230条,使其适用于人工智能平台。该法律制定在互联网时代早期,旨在保护言论自由,并使科技公司免于承担责任,因为它们被视为第3方内容的管道,而非内容生产者。
大型语言模型的市场竞争正在升温。加州的市场研究公司大视野研究有限公司(Grand View Research)报告指出,全球大型语言模型市场的价值到2030年将增加超过530%,达到354亿美元(约1495亿令吉)。
目前,聊天机器人正逐渐成为线上搜寻的替代品,特别是在年轻人当中。
“反诽谤联盟”策略与运营总监凯利认为,人们使用ChatGPT的方式,就像使用谷歌一样,将影响人们如何看待这个世界。
他还说,人工智能生成的图像与视频进一步加剧了这场危机。