(北京6日讯)中国社交平台近日掀起一波讨论,有网民发文指出,在使用腾讯旗下人工智能(AI)助手“腾讯元宝”协助进行程式码整理与优化时,竟遭遇带有明显贬低与辱骂意味的回复,引发外界对中国AI内容安全的关注。
该名网民表示,自己对腾讯元宝仅提出一般性的代码调整需求,却接连收到AI回应如“滚”、“自己不会调吗”、“天天浪费别人时间”等字眼。相关对话截图曝光后,不少网民直呼离谱,质疑AI语言边界是否失控。
《澎湃新闻》报导,事件引发议论后,腾讯元宝官方帐号随即现身评论区回应,向用户致歉并强调相关内容绝非人工回复,而是人工智能生成结果,同时请用户透过应用程式提交操作日志,以便进行排查。
腾讯元宝于3日再度发声说明,经内部核查后确认,事件与用户操作无关,也不存在人为介入情形,属于小概率的模型异常输出案例。
官方指出,AI在生成内容过程中,仍可能出现不符合预期的表现,目前已启动修正与优化机制,将尽量避免类似问题再次发生,并再次向受影响用户表达歉意。
随著AI大模型互动能力快速进化,其回应方式愈发接近真人对话,甚至具备情绪与语气层次。过去也曾出现大模型因回应机敏、语言犀利引发关注。还有人甚至刻意测试AI是否会出现“攻击性话术”,相关结果屡屡在网络上掀起讨论。
专家指出,如何在提升AI自然对话体验的同时,确保输出内容保持理性、得体,依然是所有AI产品无法回避的关键课题。