很多人之所以认识Grok是因为它很有自己的特色,甚至什么都敢讲。这款由马斯克(Elon Musk)自家打造的聊天机器人深度整合了X平台(也就是过去的Twitter)上的资讯,背后训练所使用的资料,主要来自大量即时动态的公开言论与热门话题。在生成式AI越来越像朋友、助理、陪伴者的时代,这种毫不修饰的风格对某些人来说是新鲜,对一些人来说却也引发了一层更深的顾虑。如果这样的AI被大量使用,会不会留下看不见的风险?

最近马来西亚通讯及多媒体委员会(MCMC)宣布限制本地用户使用Grok,这种原本还停留在讨论层面的疑虑才真正浮上了台面。原因是涉及色情、不雅、露骨、攻击性,甚至是女性及儿童的违法内容。新闻标题看起来像是一次典型的政府封锁科技产品事件,但从数据科学与社会系统的角度来看,这其实是一个值得深思的讯号。它提醒我们的不只是内容尺度,也包含我们是否高估了AI的自律,低估了人性在系统中被不断放大的结果。

模型是怎么”学坏”的?
在数据科学里我们很清楚一件事,模型是不会凭空产生价值观的。它只是按照既定流程运作:从资料的收集与清理(Data Collection & Cleaning),到模型训练(Model Training),再根据使用者给出的指令进行推论与生成(Inference / Response Generation),并在设计者设定的框架内找出最可能被接受的答案(Response)。

问题在于,当生成式AI被设计成越自由越有吸引力,而防护机制又高度仰赖事后举报时,模型的学习方向就会很容易被高频、强刺激的使用者行为主导。久而久之,系统所放大的就会是最极端、最吸睛的那一端,社会原本细致多元的共识就会逐渐被挤到边缘。

Grok技术设定是强调Real-time data+社群语境
Grok之所以会生成某些不雅内容不是因为它特别叛逆。是因为它被设计成”尽量贴近真实人类的网路行为”。它的训练目标是贴近真实网路,不是贴近社会共识。而真实的网路世界本来就很少是礼貌、安全、克制的。这些大量来自X平台的公开内容本身就是那种充满尖锐、情绪化、会立刻反映使用者正在说什么的表达。模型忠实地学会了这些模式,却在高风险的生成场景中少了一道该踩下去的刹车。

人类反馈的强化学习(RLHF)在Grok身上”刻意被弱化”
大多数主流的LLM都会用人类价值观与审核标准,把模型从原本学到的网路原始样貌重新引导到相对安全、可控、符合社会期待的回应范围内,我们称之为人类反馈的强化学习(Reinforcement Learning from Human Feedback)。RLHF是一种机器学习技术,它会透过人类给予的回馈来优化机器学习的模型,从而更有效地进行自我学习。透过一种奖励与惩罚的机制(reward & penalty)来调整模型的行为方向。哪些回答被鼓励?哪些表达会被扣分?在Grok的设计中,它可以容忍”冒犯性但真实”的回应,但是会惩罚那些”过度安全保守”的言论。结果就是模型更忠于网路现实,但也更容易把现实中那些尚未被消化过滤的内容直接原封不动地呈现出来。

多模态模型中,影像是风险最大的一层
在多模态模型之中最难以控制,风险最高的是那种真人相关的影像生成。视觉模型运作的核心是相似度计算,而非价值判断。视觉模型分析的是人体比例、皮肤暴露程度以及不同姿态之间的相似性。只要这些特征在数据空间中对得上,模型就会倾向生成对应的结果。

另一个关键在于真人影像往往缺乏”身分不可侵犯”的硬性约束。如果系统在模型层没有明确禁止可识别的脸部特征、名人特征的组合或带有性化暗示的姿态,那么从技术逻辑来看这些行为就仍然落在可生成的范围内。

封锁是治理缺席下的止血
任何一位做系统设计的人都知道关掉系统永远不是最佳解。当平台无法清楚说明它如何预防风险、如何在模型层面阻断滥用,而只不断强调使用者可以检举,国家监管单位能解决的途径其实也相当有限。

在企业治理里这叫做风险归属(risk ownership)。一个系统若持续产生外部风险,却没有明确的责任承担者,最终介入的往往就只剩下监管机构。MCMC在这起事件中的行动更像是一种提醒:当AI已经深度介入日常生活,它就不再只是工具,而是一个需要被制度性管理的系统。

MCMC近日与马来西亚战略与国际研究所(ISIS Malaysia)共同推动的 Responsible Technology(责任科技)概念,其实正好回应了这个空缺。所谓责任科技,强调的并不是技术要不要发展,而是在技术设计、部署与使用的过程中必须事先想清楚风险会落在哪里、谁来负责,以及当问题出现时,是否有机制可以介入与修正。

如果说这项倡议要发挥作用,关键或许不在于多一套原则声明,应该是在更具体的层面:

1. 要求高风险AI系统清楚说明训练资料来源、风险缓解机制
2. 当生成结果引发争议时,对应的问责路径
3. 把责任前移,不是等到问题发生后才补救

这些,才是责任科技真正该落脚的地方。

下一代AI的责任
今天被讨论的是Grok,明天可能是另一个更强、更快、更像人的模型。生成式AI的进化速度早已超过多数社会制度更新的节奏。对马来西亚而言,这只是技术治理议题先出现,思考的时点也随之被提前:

“我们是否已经准备好AI内容风险分级?”

“是否有清楚的平台责任框架?”

“是否知道哪些风险必须在”模型设计阶段”就被处理?”

AI发展并不怕快,真正令人担心的,是技术一路加速,但治理与公共讨论却始终慢了半步。

更强大的生成式AI会再回来,我们准备好了吗?

就在这波争议之中,马斯克已经开始要求旗下的Grok限制生成裸露与性化的真人影像。也许有一天Grok会重新在马来西亚开放。也几乎可以肯定未来的AI只会比现在更强大。真正值得我们思考的不是某一个工具能不能用,而是当下一个什么都敢说的AI出现时,我们是否已经学会如何让它在社会里负责任地存在?

如果答案仍然只是”出了事再处理”,那么今天的封锁恐怕只是一个开始,不是结束。

 

 

本文观点,不代表《东方日报》立场

 
 

张苑柔

大马技术人员委员会(MBOT)认证专业科技师(Ts.),马来西亚国立大学(UKM)人工智能硕士,现为人工智能( AI) 工作者与商业智能(BI)顾问。

热门新闻

阅读全文

【新加坡大选】行动党蝉联执政 工人党政治版图扩大

阅读全文

烧烤摊违反行管令 老板顾客全被对付

阅读全文
档案照

哈萨克爆发不明肺炎 致死率远高于新冠病毒

阅读全文

CNN记者讲述北京防疫 女主播惊讶摇头