在AI技术高速发展的今天,越来越多女性发现自己在网络空间中“赤裸裸地”被消费;而那些照片与视频,却从未真实存在。她们的面孔、声音,甚至身体轮廓,被深度伪造(deepfake)技术与AI合成工具拼接捏造,生成大量非自愿的色情内容。

这种“伪影像”因其逼真度极高,传播成本极低,成为新型网络性别暴力的工具。然而,令人震惊的是,在马来西亚,这一切至今并不违法。

根据国际网络安全机构Deeptrace(现Sensity)在2023年发布的数据,全球已流传的深伪视频数量达到95,820个,较2019年增长高达550%。其中,98%的深伪内容属于非自愿的色情影像,99%的目标对象则是女性。也就是说,几乎所有被AI技术“创作”的受害者,都是无辜女性。

而在Google和WIRED联合统计的资料中,自2017年以来,仅仅针对全球范围内数个主要深伪色情网站,Google就已经收到超过13,000起版权投诉,涉及超过30,000个侵权URL。这还只是已被发现并投诉的部分,更多的合成色情内容,仍隐藏在暗网、小众社交平台与私人群组中,持续对女性的名誉、心理乃至现实生活造成无法估量的伤害。

更让人无力的是,马来西亚现行法律对于这类数字侵权行为,几乎无法有效应对。根据《个人资料保护法》(PDPA)和《多媒体与通讯法》(CMA 1998),只有“未经授权传播真实影像”的行为才属于违法。换言之,当一个视频完全由AI生成,受害者本人甚至从未拍摄过相关内容时,现有法律就难以提供保护与追责。更现实的困境是,受害女性必须被迫证明“视频中的人不是自己”,在“自证清白”的过程中,受害者往往面临网络嘲讽、社会压力甚至职业与家庭的二次打击。

事实上,放眼国际,许多国家已意识到深伪合成影像所带来的法律挑战与社会危害。英国已明确将“制造及传播非自愿性影像”纳入刑法,将深伪色情归类为刑事犯罪。澳大利亚则正在推进新法案,将生成及散播AI合成色情内容直接认定为刑事犯罪,并通过简化举报流程,降低受害人维权门槛。这些国家普遍达成的法律共识是:影像是否真实并不重要,重要的是伤害是真实的。

相比之下,马来西亚在这一领域的法律保护显然已严重滞后。我们迫切需要修法,增设“合成性影像犯罪”这一罪名,明确规定利用AI技术制作、散播合成色情内容属于刑事违法行为,并且不应以影像是否“真实”为前提。此外,受害者应有权在无需证明影像真实性的前提下,要求平台或相关方立即删除与屏蔽合成影像。平台应承担更多技术管控责任,而非单纯作为内容传播的中立渠道逃避监管。同时,国家层面应提供法律咨询与心理援助,防止受害者因维权难、取证难而选择沉默。

AI技术的发展本应为社会带来便利,但在法律真空下,它却被滥用于制造性别伤害。技术为恶,法律缺席,这一切不应成为新时代的常态。当数字空间成为女性身体与尊严被剥夺的灰色地带,我们必须意识到:所谓“伪造”的,只是影像,而受害者所承受的,却是真实的暴力。

在这个问题上,法律不能继续沉默。女性需要的,从来不只是删除键,而是法律的保护。
 

刘㛤萱

自由撰稿人。

热门新闻

阅读全文

【新加坡大选】行动党蝉联执政 工人党政治版图扩大

阅读全文

烧烤摊违反行管令 老板顾客全被对付

阅读全文
档案照

哈萨克爆发不明肺炎 致死率远高于新冠病毒

阅读全文

CNN记者讲述北京防疫 女主播惊讶摇头