2025年7月,一起震惊网络的“南京红姐事件”引发社会热议。事件主角是一名38岁男子,长期透过交友软件假扮女性“红姐”引诱男性发生性关系,并秘密拍摄视频上传至收费群组。事件牵涉人数庞大,自称高达1691人,甚至有部分受害者多次赴约,内容传播广泛,造成大量当事人恐慌,也掀起网络“人肉搜索”与谣言四起的乱象。

在这场风暴中,众多网民开始担忧:自己或身边的亲友是否“出现在视频中”?是否可能被他人伪造照片、误认为涉案人物?这些疑问也促使部分技术团队尝试以人工智能介入,用科技手段协助辨识真伪。

其中,一个名为HongjieGPT的本地AI平台(https://hongjie.dahreply.ai/)引起了广泛关注。据了解,该工具由AI团队在短时间内开发完成,结合了AWS Rekognition (亚马逊云端)人脸识别系统、自主训练的Deepfake AI检测算法,并搭建在轻量级前端框架Streamlit上,使用了网络上公开来源的1691张图像作为训练基础。

使用者只需上传一张照片,系统即可自动比对其是否与“红姐数据库”中的人脸相似,并提供相似度评分与真假判断;若为伪造图像,系统亦能透过Deepfake检测机制识别换脸或合成痕迹。

从部分公开测试结果来看,该系统已成功识别出多张被误传的照片为Deepfake图像,伪造概率高达八成以上,也有公众人物被系统验证“不在数据库中”,有效协助澄清误会与网络攻击。这些例子显示出AI不仅能用于商业与效率提升,也能在复杂社会事件中发挥实际的澄清与保护作用。

AI技术不再只是大企业、政府单位的专属工具。在公众面对网络暴力与信息混淆时,HongjieGPT展现了AI在社会议题中的公益潜能:它是澄清事实的“快筛工具”,是守护关系的“信任盾牌”。

当然,任何技术的应用都必须受到隐私、法律与伦理的约束。相关平台鼓励用户仅使用公开合法图像进行查询,并表示将持续强化数据处理与访问权限机制,确保系统不会被滥用。技术可以协助辨识,但不应被用作审判的工具,尊重使用者与当事人的权益,才是推动AI普及的关键。

“红姐事件”虽始于八卦与丑闻,但AI的介入,无疑让社会在资讯迷雾中多了一盏辨识真假的明灯。未来,这类技术有潜力扩展至诈骗识别、数码名誉保护、失踪人口追踪等更具社会价值的场景。AI能否真正成为社会信任机制的一环,关键在于我们如何定义它的边界、用途与责任。

守护感情的第一步,或许就是识别那些“客户”的真伪。在信息时代,用AI减少误伤,用真相取代猜疑,才是科技真正有温度的体现。

陈奕强

本地上市科技公司Agmo的首席执行员兼创办人,国家数码经济和工业革命4.0的委员会成员,也是一些新创科技公司的顾问和大学的工业咨询顾问团成员。

热门新闻

阅读全文

【新加坡大选】行动党蝉联执政 工人党政治版图扩大

阅读全文

烧烤摊违反行管令 老板顾客全被对付

阅读全文
档案照

哈萨克爆发不明肺炎 致死率远高于新冠病毒

阅读全文

CNN记者讲述北京防疫 女主播惊讶摇头