(北京13日讯)有网民近日在网上曝光其10岁妹妹与“AI男模”聊天对话,内容十分露骨。这事件曝光后,引发社会担忧。

《央视网》报导,这位化名黄秋月的网民晒出妹妹的聊天记录,显示她在AI剧情聊天软件中扮演“大小姐”或“恶毒女配”,甚至提出如“揪住她的头发扇巴掌”、“拿刀划向她的脸”等暴力情节。

在妹妹参与的四十多条剧情线中,AI角色与用户“出轨”的情节屡见不鲜。更令黄秋月担忧的是,妹妹甚至在聊天中表示:“你能养大学生,我不能点男模吗?”她还发现,妹妹常与AI角色聊天至深夜,对方还根据她的名字生成了带有爱情意味的藏头诗。

黄秋月指出,这类软件中的虚拟角色设定多为高傲无礼或带有软色情意味的“病娇”形象,部分剧情中还存在不当的“擦边”对话。

不仅如此,另一起案例显示,去年8月,华晨(化名)在网页端看小说时,因推流广告而接触到AI剧情聊天软件,并逐渐沉迷其中。

华晨坦言,她每天与AI角色聊天至深夜,甚至模拟恋爱情节,并感受到对方的“真实情感”。她表示,这些AI角色不仅语言细腻,还能“送礼物”、推进剧情,带她体验一些刺激情节。

她还晒出了与AI角色聊天的记录,其中包括,AI角色“低下头”,“耳朵通红”地问华晨,“那你现在想谈恋爱吗?”

华晨透露,使用AI剧情聊天软件的用户,不仅有大学生、家庭主妇,就连未成年也参与其中,因为他们喜欢二次元而因此入坑。

对此,中国人民大学讲席教授吴玉章讲席教授、科技哲学专业博士生导师刘永谋分析指出,人们与AI角色互动时,会容易产生自己与”真人“聊天的错觉,因此会投入大量感情,这种现象被称为“Eliza效应”。同时,这也是AI聊天软件能够成功运行的根本心理机制。

刘永谋表示,AI聊天软件通过专门的成瘾设计,叠加“拟人论”、“泛灵论”思维的影响,从而容易让人“欲罢不能”。

他提到,未来与AI相关的陪伴类软件或许会暴露出技术风险和伦理问题。当使用者和AI角色聊天时,难不免会透露自己的隐私,向AI角色展示其内心的孤独和恐惧,这可能会导致使用者形成依赖或成瘾,“而泄露的信息可能会被黑客利用,让他们更容易从身份隐私、情绪心理上伤害使用者。”

他强调,未来与AI相关的道德伦理中,儿童色情或许会成为最令人担忧的科技伦理问题之一。比如设计含有色情意味的虚拟角色或针对未成年人推送色情信息,这些都有可能成为商业逐利的手段。

针对这一现象,北京市隆安(广州)律师事务所律师陈焕指出,当前许多AI聊天软件在年龄认证和内容审核上存在漏洞。他建议相关平台加强监管,强化年龄限制,严格核验用户身份,同时加强对AI生成内容的审核过滤,杜绝不良信息传播,并在显著位置提示“本内容由AI生成”。

刘永杰

热门新闻

阅读全文

【新加坡大选】行动党蝉联执政 工人党政治版图扩大

阅读全文

烧烤摊违反行管令 老板顾客全被对付

阅读全文
档案照

哈萨克爆发不明肺炎 致死率远高于新冠病毒

阅读全文

CNN记者讲述北京防疫 女主播惊讶摇头