周二在德黑兰,一名男子走过费尔多西广场附近倒塌和受损的建筑物,脸上露出惊恐的表情。(图取自法新社)

(日内瓦5日讯)一位权威专家周三警告说,如果美以两国在选定攻击目标时广泛使用人工智能(AI),或会削弱人类对战争决策的掌控,并引发一连串法律与道德问题。

法新社报导,自发动攻势以来,美国和以色列已对伊朗境内发动了数千次打击。战争首日的袭击造成伊朗最高领袖哈梅内伊身亡。

美国纽约新学院(The New School)媒体研究副教授、人工智能和机器人专家阿萨罗周三告诉法新社,从计划时间很短、目标数量庞大来看,美以两国很可能使用人工智能来识别伊朗境内的目标。

他说,人工智能可以大幅提高速度,但也引发了一系列道德和法律问题。“你可以通过自动化流程,比人类更快生成一长串目标清单。关键在于,在授权打击前,人类是否真的逐一审查这些目标,并确认是否合法、是否具有军事价值。”

也是“停止杀手机器人”(Stop Killer Robots)运动副主席的他说道,各国都希望在战场上比对手更快作出决定,但问题是:“你是否仍然真正掌控局势?”

过去10年,各国一直讨论是否为自动化武器制定条约。今年稍后,各方将决定是否启动正式谈判。虽然目前没有专门规范人工智能武器的条约,但现有国际法依然适用。

阿萨罗在日内瓦联合国会议期间指出,争论的核心在于目标选择,以及是否会失去“有意义的人类控制”。支持者常称人工智能更精准、错误更少,但他指出,这些系统多建立在保密平台上,外界难以了解其运作逻辑,也缺乏简单方法在出错时追查原因。

伊朗南部米纳布一所女校日前遭袭,伊朗称超过150人死亡并指责美以所为。双方未证实此事。法新社无法独立核实死亡人数,也未能进入现场。但法新社确认这所学校靠近两个由伊朗伊斯兰革命卫队控制的地点。有报导称,学校与军事设施分开存在已至少10年。

如果出现误判,是人类判断失误,还是系统数据过时?抑或数据库出错?也可能目标识别无误,但打击偏离?阿萨罗表明,各种各样的失误都有可能发生。但更令人担心的是,如果系统本身得出结论,把学校视为威胁,那么它的判断依据是什么?

他说:“如果出了问题,谁负责?法律如何界定?道德界线在哪里?”

甯义声

热门新闻

阅读全文

【新加坡大选】行动党蝉联执政 工人党政治版图扩大

阅读全文

烧烤摊违反行管令 老板顾客全被对付

阅读全文
档案照

哈萨克爆发不明肺炎 致死率远高于新冠病毒

阅读全文

CNN记者讲述北京防疫 女主播惊讶摇头