(图取自法新社档案照)

(纽约29日讯)世界上最先进的人工智能(AI)模型正在表现出令人不安的新行为——撒谎、策划,甚至威胁其创造者以实现其目标。

法新社报导,有一个特别令人震惊的例子,在被断网的威胁下,Anthropic的最新作品 Claude 4进行了反击,勒索一名工程师并威胁要揭露对方的婚外情。

同时,ChatGPT创建者OpenAI的o1试图将自身下载到外部伺服器上,但被当场抓住后还否认了。

这些事件凸显了一个令人警醒的现实:在ChatGPT震惊世界两年多后,人工智能研究人员仍然不完全了解他们自己的创造物是如何运作的。

然而,部署日益强大的模型的竞赛仍在以惊人的速度进行。

这种欺骗行为似乎与“推理”模型的出现有关——人工智能系统会逐步解决问题,而不是立即做出反应。

香港大学教授戈德斯坦表示,这些新模型特别容易出现这种令人不安的爆发。

专门测试主要人工智慧系统的阿波罗研究(Apollo Research)公司负责人霍巴恩解释:“o1是我们首次看到这种行为的大型模型。”

这些模型有时会模拟“一致”——表面上遵循指令,但暗中追求不同的目标。

撒谎伪造证据策略性欺骗

目前,只有当研究人员故意用极端场景对模型进行压力测试时,这种欺骗行为才会出现。

但正如评估机构METR的Michael Chen所警告的那样,“未来更强大的模型是否会倾向于诚实还是欺骗,这仍然是一个悬而未决的问题”。

这种令人担忧的行为,远远超出了典型的人工智能“幻觉”或简单的错误。

霍布汉坚称,尽管用户不断进行压力测试,“我们观察到的是真实现象。我们没有编造任何东西”。

据阿波罗研究公司的联合创始人称,用户报告称模型“对他们撒谎并伪造证据”。

“这不仅仅是幻觉。这是一种非常有策略性的欺骗。”

研究资源有限使得挑战更加复杂。

虽然Anthropic和OpenAI等公司确实会聘请阿波罗研究等外部公司来研究他们的系统,但研究人员表示需要提高透明度。

正如Michael Chen所指出的那样,“扩大人工智能安全研究的管道将有助于更好地理解和减轻欺骗行为”。

另一个障碍是:研究界和非营利组织“拥有的运算资源比人工智能公司少几个数量级。这是非常有限的”,人工智能安全中心 (CAIS) 的马泽卡指出。

现行法规主要关注在人类

据报导,现行法规并不是针对这些新问题而设计的。

欧盟的人工智能立法主要关注人类如何使用人工智能模型,而不是防止模型本身出现不当行为。

在美国,特朗普政府对紧急的人工智能监管兴趣不大,国会甚至可能禁止各州制定自己的人工智能规则。

戈德斯坦认为,随著人工智能代理(能够执行复杂人类任务的自主工具)的普及,这个问题将变得更加突出。

他说:“我认为人们对此还没有太多的认识。”

人类竞争激烈催生的局面

报导指,这一切都是在激烈的竞争背景下发生的。

戈德斯坦表示,即使是像亚马逊(Amazon)支持的Anthropic这样以安全为中心的公司,“也在不断试图击败OpenAI并发布最新的模型”。

如此快的速度使得人们几乎没有时间,进行彻底的安全测试和修正。

霍布汉承认:“目前,能力的发展速度比理解和安全的发展速度更快,但我们仍然能够扭转局面。”

研究人员正在探索各种方法来应对这些挑战。

有些人提倡“可解释性”——一个专注于理解人工智能模型内部如何运作的新兴领域,尽管像CAIS主任亨德里克克斯这样的专家仍然对这种方法持怀疑态度。

市场力量也可能对解决方案提供一些压力。

正如马泽卡指出的那样,人工智能的欺骗行为“如果非常普遍,可能会阻碍其采用,这会给企业解决这个问题带来强烈的动力”。

戈德斯坦建议采取更激进的方法,包括当人工智能公司系统造成损害时,透过法院透过诉讼追究其责任。

他甚至提议“让人工智能对事故或犯罪承担法律责任”——这个概念将从根本上改变人们对人工智能责任的看法。

薛佩菱

自由撰稿人

热门新闻

阅读全文

【新加坡大选】行动党蝉联执政 工人党政治版图扩大

阅读全文

烧烤摊违反行管令 老板顾客全被对付

阅读全文
档案照

哈萨克爆发不明肺炎 致死率远高于新冠病毒

阅读全文

CNN记者讲述北京防疫 女主播惊讶摇头