“你好吗?” 这句再简单不过的问候,或许是许多心理困顿者最渴望听见却最不容易听见的一句话。然而,由于心理辅导费用高昂,专业治疗师集中在城市,加上对心理疾病的污名化依然存在,使得人们无法得到及时的援助。
近年来,人工智能(AI)快速渗透至心理健康领域,从最初的情绪记录工具,冥想引导器,到如今能对话、回应甚至给予认知行为疗法建议的聊天机器人,AI已成为随时待命的数字听众,推动著心理治疗的普及化,重新开启了人们疗心的可能性。
其实,AI与心理辅导的缘分源远流长。早在1966年,麻省理工学院(MIT)的科学家就开发了被称为ELIZA的程序,模仿一名罗杰斯学派的治疗师,运用简单的语言模式匹配与使用者对话。尽管功能有限,这项技术却意外唤起用户的情感依附,被称为“ELIZA效应”。
时隔多年,如今的AI已经跃升至具备自然语言处理能力,情绪识别与记忆能力的“类人对话者”。像ChatGPT、Woebot、Replika、Wysa等系统,已能理解用户情绪,给予结构化建议,甚至引导使用者完成正念练习,记录情绪,并进行焦虑管理等干预。这些AI系统有的以认知行为治疗(CBT)为核心,有的主打“数字陪伴”,有的则被整合进学校或企业心理健康系统中,协助情绪初筛与推广心理健康醒觉。
笔者认为,这些AI工具可以为心理照护注入三大变革。首先,是提升心理咨询的可及性。过去的心理治疗多集中在都市的中产阶级,鲜少触及中下阶层或偏远乡区。而AI工具可以透过手机或电脑,随时随地接触到各阶层人士。对许多在现实中求助无门的人而言,AI是一道24小时不打烊的窗口。
其次,是成本优化。众所周知,传统心理治疗收费不菲,每小时动辄百馀令吉。反之,AI辅导工具多采用订阅制或免费增值模式,可以大幅降低心理咨询门槛。对预算有限的个人、学校与社福机构而言,这无疑是一种福音。
第三,AI工具可以减少心理咨询者的污名化。面对“你是不是有病”的社会眼光,许多心理问题患者宁可保持沉默,也不愿前往求助。由于AI辅导具有匿名与客观性质,许多人会把它视为更安全的情绪出口。研究亦指出,人们在与AI互动时,往往比对真人更坦率坦诚,这种现象被称为在线去抑制效应(Online Disinhibition Effect)。
无论如何,AI疗心虽具突破性潜力,亦存在不可忽视的盲点与风险。首先,AI不具备真正的同理心。虽然AI可以识别悲伤,模仿关怀语气,却无法如人类治疗师般感同身受。真正的疗愈,往往来自那种被共鸣的深度连接,而这恰是AI难以取代的。
其次,是隐私风险。AI系统收集的对话内容,涉及使用者最脆弱的心理状态,一旦外泄,将带来极大伤害。调查发现,一些AI心理应用程序在未充分告知用户的情况下,将数据传送给第三方分析公司或社交平台。这种隐私贩卖是我们在全面启动AI心理治疗模式之前必须克服的。此外,一旦用户倾向长期依赖AI倾诉,延误了真正寻求专业人类辅导的时机,也将构成一大隐忧。
正因如此,若要让AI心理辅导普及化,我们必须建立系统性的引导与监管。首先,卫生部应考虑将AI心理工具纳入公共心理卫生策略,在教育、职场与基层医疗中推广,并制定相关的数据保护法规,维护用户隐私。
此外,AI心理工具开发者应考虑本地多语多文化特性,开发更具包容性的AI产品,并与临床心理师合作,建立伦理监督机制与误用干预机制。学校与媒体也应加强AI心理辅导素养教育,让年轻人理解AI只是工具,不能替代人类心理治疗师。
当然,我们也应重塑整个社会看待心理咨询的方式。在这个情绪高度压抑的时代,“有事找人聊聊”应该是每个人的权利。若AI能成为推动这种社会认知转型的敲门砖,其价值将不仅局限在科技层面,更能扩充到人文层面。
总的来说,AI心理工具不能取代心理治疗师,但在一个对话稀缺,关怀昂贵,压力普遍的时代,它可以是最触手可及的疗愈起点。我们期待在未来,AI技术可以与人类心理治疗师并行,帮助我们更好地看见彼此,更勇敢地聆听自己。