过去多年,当我们谈及临床试验,多半聚焦于药物研发或实验室层面的应用。如今,人工智能也逐步走进这一领域。临床试验是医学研究中监管最严格,证据要求最高,风险也最集中的阶段。这项转变带来的,是更快的试验进度与更高的运作效率,但同时也引出了关于伦理与人类监督的深层问题。

这一变化之所以值得关注,在于人工智能已不再只是试点项目。麻省总医院百瀚医疗系统(Mass General Brigham) 所开发的 AIwithCare 系统,已可透过分析电子病历,协助筛选合适的临床试验受试者。另一方面,阿斯利康与 AI 公司 Qure.ai 合作,在泰国部署了基于人工智能的胸部 X 光影像分析系统 qXR-LNMS,用于大规模肺癌筛查。该系统通过自动识别胸部 X 光片上的可疑肺部病变,协助及早检测可能的肺癌风险,并将可疑病例纳入进一步医学评估与临床研究。

辉瑞在其机器学习研究中心(ML Research Hub) 整合过往临床试验资料,生物标志物数据与真实世界电子病历信息,运用机器学习分析不同患者亚群,以优化研究设计并提高治疗精准度,同时降低不良反应的风险。诺华的智能决策系统(Intelligent Decision System)透过建立临床试验的数位孪生模型来模拟整个试验流程,使研究团队能在实际执行前进行情境分析与方案优化,从而在试验周期漫长、变量复杂的情况下,提高决策效率与整体可控性。

与此同时,美国监管机构亦已批准 PathAI 的 AIM-MASH 系统,用于代谢功能障碍相关脂肪性肝炎临床试验中的肝脏病理评估,以提升判读一致性并加快试验流程。

众所周知,临床研究周期动辄超过十年,成本持续攀升,病人招募困难始终是最常见的瓶颈之一。加上行政文书与数据处理负担沉重,许多试验并非因疗效不足而失败,而是无法在期限内完成。在此背景下,人工智能被视为突破瓶颈的潜在解方,可协助分析大量数据,简化流程,并更精准地识别合适的受试者。

但必须强调,临床试验涉及真实病人与人身安全,涉及严格的伦理与监管标准。正是在这种规模化应用下,伦理与治理问题愈发凸显。当人工智能参与决定谁可进入试验、哪些影像或数据被优先采信,公平性、透明度与责任归属变得至关重要。

回看国内,马来西亚医学理事会(MMC)于2025 年发布的《人工智能伦理使用指南》提出,以人为本、可追责、透明、公平与专业,是人工智能在医疗领域应用的核心原则。该指南强调,人工智能应辅助而非取代临床判断,医生与研究人员在使用人工智能时,仍须对最终决策与结果负起责任。

然而,这套伦理框架主要针对一般临床应用。相较之下,临床试验的风险更高,其决策直接影响药物审批、治疗指引与公共健康政策,因此对规范的要求也更为严格。

从国际经验来看,部分监管机构已开始采取审慎而明确的做法。例如,美国食品药品监管机构对 AIM-MASH 的授权,并非全面放行,而是针对特定功能与用途进行评估。反观大马,目前虽已具备伦理指引、医疗器械监管制度与个人资料保护法,但在人工智能用于临床试验方面,仍缺乏更具针对性的治理框架。

因此,若我们能在现有伦理原则基础上,建立清楚的临床研究人工智能规范,不仅可提升大马的试验效率,也有望吸引更多国际临床研究合作。

这包括将现有伦理指引延伸至临床研究层面,设立受监管的试验沙盒,要求人工智能系统具备可解释性与审计机制,并加强临床工作著、伦理学者、监管机构与病人代表之间的协作。

人工智能能让临床试验更有效率,但速度不是医学进步的唯一标准。真正重要的,是在提升效率的同时,守住规范与信任的底线。若大马能将伦理框架融入临床研究治理之中,或许有机会在人工智能临床试验的发展上,走出一条新颖又稳健的道路。

 

 

本文观点,不代表《东方日报》立场

曾志涛

自由撰稿人。

热门新闻

阅读全文

【新加坡大选】行动党蝉联执政 工人党政治版图扩大

阅读全文

烧烤摊违反行管令 老板顾客全被对付

阅读全文
档案照

哈萨克爆发不明肺炎 致死率远高于新冠病毒

阅读全文

CNN记者讲述北京防疫 女主播惊讶摇头