图为由加拿大皇家骑警于2月13日提供的照片,显示近日校园枪击案嫌犯鲁特塞拉的未注明拍摄日期照片。(图取自加拿大皇家骑警/法新社)

(三藩市22日讯)加拿大不久前发生史上第2大校园枪击案,《华尔街日报》当地时间上周六(21日)独家报导,嫌犯鲁特赛拉尔去年在与ChatGPT对话过程中,曾连续多日描述枪支暴力情境,OpenAI曾考虑示警执法机关,但最终认为她的行为还没达到需要通报执法机关的门槛,决定不联络当局。

随著人工智能(AI)普及,越来越多人向聊天机器人倾诉最私密的想法。这起事件再度凸显一个矛盾:研发聊天机器人的公司如何在使用者隐私和公共安全间取得平衡。

中央社根据《华尔街日报》报导,加拿大2月10日发生大规模枪击案,造成含枪手在内共9人死亡、27人受伤,枪手为18岁女性鲁特赛拉尔(Jesse Van Rootselaar),她在警方赶到时已自杀身亡;而她犯案前数个月,曾与ChatGPT谈及暴力内容。

OpenAI表示,曾考虑就她与聊天机器人ChatGPT互动的情况向执法机关示警。

知情人士指出,鲁特赛拉尔去年6月连续多日描述了涉及枪支暴力的情境内容。

工作人员不安 请示主管是否通报警方

她在ChatGPT输入的文字对话被自动审查系统标记,令OpenAI人员不安,10多名员工曾就是否要采取行动进行讨论,部分员工将她的话语解读为一种暴力的征兆,并请示主管向加拿大执法机关通报她的行径。最终,OpenAI的高层决定不联络当局。

OpenAI一名发言人表示,公司决定封锁他的帐号,但认定她的行为还没达到需要通报执法机关的门槛。在枪击事件发生后,公司已主动联系加拿大皇家骑警(RCMP)。

根据规定,判断标准是其行为必须构成对他人产生可信且迫在眉睫的人身伤害风险。

报导并指出,其他数码足迹也透露端倪,除与ChatGPT就暴力内容对话,鲁特赛拉尔也在线上游戏平台“机器砖块”(Roblox)上制作一款模拟大规模枪击的电玩游戏,并在社群媒体上,分享她对性别转换过程的忧虑,以及她对动漫与非法药物的兴趣。

OpenAI表示,公司会训练其模型以阻挡使用者对现实世界造成伤害,并将使用者表达伤害意图的对话转交由人工审查员处理;在评估是否介入时,会在暴力风险、隐私考量,以及非必要涉及警方是否对个人与家庭造成困扰进行权衡。

甯义声

热门新闻

阅读全文

【新加坡大选】行动党蝉联执政 工人党政治版图扩大

阅读全文

烧烤摊违反行管令 老板顾客全被对付

阅读全文
档案照

哈萨克爆发不明肺炎 致死率远高于新冠病毒

阅读全文

CNN记者讲述北京防疫 女主播惊讶摇头