男主角一觉醒来,发现成了杀妻嫌疑犯。没有完整记忆,也没有情绪缓冲,只有一个冰冷的倒数计时:90分钟内要找出真相,否则被处死。
无法改变的审判系统,因为他已坐在受刑椅上,眼前审判的不是人,而是遵照指令执行的AI法官。
这位毫无情绪的AI法官听起来近乎完美,不偏袒不疲倦,也不会因外界舆论压力而动摇或受贿。最重要是,她具备人类无法企及的优势,即能在毫秒间调阅全球数据,掌握所有人类的知识与最及时的资料。
理论上来说,她比任何一位人类法官都更公正清新。
毕竟,人类法官可能没睡好,或被告的长相不讨喜而产生潜意识偏见。AI只看数据与证据,并拥有“全知视角”,比起容易被证言误导的人类陪审团更能接近事情的真相,相对能实现真正的“法律面前,人人平等”。
同时,被告有权调阅所有AI资讯自辩,打破法律门槛,让正义不再只是昂贵律师团的专利。当情绪、成见、疲劳、社会氛围、舆论压力,甚至个人价值观等都消失,直接让演算法取代人性,证据凌驾直觉,看起来似乎能带来更好的审判结果,减少冤案的发生。
问题是——公正真的等于正义吗?
这正是电影中紧迫的窒息感,也是AI的致命缺陷。毕竟AI理解资讯,却不理解人性。
AI不会同情,不懂犹豫,更不会因为一个人的背景、创伤、成长环境等,而思考“责任”的重量。它只看证据,发生机率,人物之间关联,犯罪运作模式。对AI来说,一个人不是一段人生,而是一组资料点。
但法律从来不只是数学题,也不该只是死板板的条文,还必须纳入动机。
例如,一个为了救孩子而偷药的父亲,和为了牟利而偷药的贼,在AI逻辑中可能都被视为相同的盗窃行为,判了相同的罪行。
在现实中,很多判决的关键,不在于有没有做,而在于“为什么这样做”。包括情绪失控杀人与预谋杀人,量刑不同;自卫与故意伤害,判断不同;精神状况、长期受虐、社会处境,都可能成为影响判决的因素。
情感投射
这些灰色地带,正是人类法官必须承担的痛苦,即不只要要看对错,还要承担“理解一个人”的责任。这也是那么多年大家对法律的本质思考,是为了惩罚,还是为了教化?如果判决失去对生命苦难的感同身受,这种“公正”是否只是一种高效的冷酷?
甚至演算法本身在训练阶段,就可能不自觉吸纳人类历史的歧视,那所谓的“公正”会否也是被包装过的偏见?
还有个有趣点。电影里被告有90分钟可动用所有AI资讯找证据自辩。表面上,这是极致的人权保障,但这也隐含一个残酷前提——你必须懂得如何与系统对话,解读资料,以及操作科技。
问题来了。若不懂科技,语言能力不足,没有相关资源与知识,甚至在极端压力下,无法冷静搜寻与分析,那制度赋予的“权利”,实际上你真的拥有这个能力吗?也许最值得反思的,不是AI能不能当法官,而是我们为何渴望把“判断”交给机器?
是因为大家对人性失去信心?不相信这个时代的人能冷静公正,不带偏见思考,才把希望投射到没有情绪的系统。
但正义真的可以去情绪化吗?同理心真的会干扰变数吗?尤其经验丰富的老法官能从被告的一个眼神或语气停顿中察觉异样,这份“人味”,AI会学懂吗?
《Mercy》不仅是一部科技悬疑片,更像是一则预言,提醒著科技能轻松寻找证据,但最终决定一个人生死与罪名的,不该仅仅是0与1的逻辑运算。
真正的公正,往往存在于灰色地带,一些数据无法触及的情感纠葛与道德挣扎之中。如果正义失去Mercy,那法律不过是一具精密的行刑机器。
本文观点,不代表《东方日报》立场。