在AI医疗中,如何为患者信任“兜底”?

可核查的临床医生审核机制,是建立对AI医疗信任的关键。 Image: Shutterstock
- AI医疗的应用速度远远超过人们产生对其信任的速度。这一点在敏感领域尤为明显。
- 以临床医生否决权为代表的关键指标可以为患者建立信任“兜底”。
- 亚洲的医疗系统为AI医疗的安全性保障提供了实践案例。
人工智能(AI)正在成为人们使用医疗服务的首层触点。从症状自测到心理辅导机器人,背后都有AI的应用。然而,AI医疗的普及速度远远超过人们产生对其信任的速度。以新加坡为例,其数字化程度极高且监管完善,AI虽然已无处不在(80%的居民都在使用),但一旦其涉及心理健康等敏感或带有情感色彩的领域,人们的信任感就会断崖式下跌。
这种情况在亚洲地区普遍存在。在印度尼西亚和中国香港,即使每四个人中就有一人尝试过AI心理健康工具,但人们对AI是否安全、是否能够共情依然存疑。放眼世界上的其他区域,这一问题也并非罕见:近60%的美国人也对AI辅助诊断感到不安。这些现实问题充分说明,现在的瓶颈不再是技术是否足够精准,而是由于缺乏“情感保障”带来的心理层面的信任危机。
这种信任缺失源于三个系统性缺陷,即便在一些先进的应用案例中也清晰可见:
1.结构性不透明。患者和医生通常无法得知AI风险评分的具体生成过程,这造成了根本性的信任缺失。这种不透明不仅会造成不便,还有可能直接导致负面的临床后果,甚至成为伤害患者的元凶。例如,经合组织的AI事件监测系统就曾记录了医疗保健领域中因AI设计缺陷而导致结果出现偏见的案例,例如,某些系统误将医疗成本作为医疗需求的代理指标,导致白人患者比黑人患者获得了更高的优先权。监管审计也证实了这种现实风险的存在。2025年发表于npj Digital Medicine的一项研究发现,超过90%获美国食品药品监督管理局批准的AI设备都没有披露关于训练数据或底层架构的基础信息。当决策背后的“为什么”不为人所知,医疗安全能否得到保证,就变成了一场全凭运气的猜测。
2. 问责制缺位。国际电信联盟发布的《2025年人工智能治理报告》指出,当私营企业的AI模型进入公共医疗流程时,开发者、医院和政府部门之间的责任界限变得非常模糊。这造成了明显的问责漏洞:一旦出现问题,无法对应到明确的责任主体。这就导致,患者的投诉可能会陷入官僚主义的真空灰色地带,没有任何一方有义务进行调查、解释或提供补救,在系统故障后严重损害公众信任。
3. 人类监督不完善。当AI首先提出诊断建议时,它其实颠覆了传统的临床工作流。近期研究证实,当临床医生对AI提出的诊断进行评估时,他们的角色正在向“审核员”转变,而他们是否采纳建议,完全取决于模型能不能解释清楚推导逻辑。但是,如果没有明确的、可操作的检查环节要求(例如强制要求临床医生必须完整仔细阅读AI的诊断结果,随后才能接受或推翻AI的诊断),所谓的“人工监督”就只是一句空话而已。
为什么“感觉安全”至关重要?
在医疗保健领域,数字化信任是保障疗效的先决条件。来自数字化心理健康应用的证据表明,即使AI在临床应用的准确率很高,如果用户感到不安,也会导致参与度降低或选择过早停用。也就是说,用户放弃使用,并非因为模型有误,而是因为整个使用体验让他们感到不安全。
由于AI无法产生真正的共情,因此我们不能将信任建立在它“像人一样建立连接”的能力上。相反,正如人机交互研究表明,信任建立在对患者脆弱性的尊重之上,这是一种由可预测性、透明度和用户控制权共同定义的互动关系。这需要明确以下三个要素:
- 使用了哪些数据? 2024年发表在《自然医学》上的一项研究提供了直接证据,一旦用户意识到有AI介入,对医疗建议的信任就会下降;这表明数据流向不明会显著降低用户披露敏感信息的意愿。
- 如何做出决策?《自然》杂志最近的一项透明度审计证实了系统性的结构性不透明,发现超过90%获得美国食品药品监督管理局批准的医疗AI设备未能报告其训练数据或架构的基本信息,这从根本上削弱了人们对其建议准确性的认可。
- 人类何时参与?近期关于AI“责任缺口”的研究表明,大多数所谓的“缺口”,其实只是责任分散在了多个环节和机构中,而非完全缺乏责任主体。在这种情况下,有效的申诉途径成为了在医疗环节重建问责机制的切实方法,例如:为患者提供可以请求解释、复核,并在必要时修改AI决策的方式)。这种途径是否存在,也会在极大程度上决定用户对公平性的看法和最终对AI的信任程度。
如何建立对AI的信任?——来自亚洲的案例
医疗体系正从理论上的信任设计,转向实际应用中的信任构建。这些改革让安全性变得直观可见,也让信任从一种口头承诺变成了真凭实据:
- 新加坡最新的改革措施(包括成立HPRG创新办公室),旨在巩固AI诊断的灵活路径,并通过诸如“软件即医疗器械(SaMD)变更管理计划”等举措,要求在部署AI前必须展示可靠的记录和网络安全态势。跨境合作也在不断加强,例如,“新马医疗器械监管互信计划”通过共享监管机制,加快技术评估速度。
- 印度尼西亚也正在行动,力求将“保障原则”植入一线诊疗中。其社会保障组织机构(BPJS)数字健康转型战略正在构建综合数字基础设施,为未来的AI辅助分诊做准备。
- 马来西亚的快速数字化举措,包括为156家公立诊所提供支持的云端系统,为检测AI的实际绩效表现提供了关键数据支撑。在其担任东盟轮值主席国期间,马来西亚优先推动在符合伦理的AI领域开展区域合作,倡导建立将安全性和可追溯性作为用户体验核心的框架。
- 中国香港正在建立可信数据共享的基础设施,这是实现AI可审计和可追溯的关键技术支柱。今年1月,由香港中文大学和香港科学园牵头的联盟宣布建立香港首个符合国际标准的粤港澳大湾区跨境医疗数据空间。该计划明确旨在通过去中心化操作和加密方案,确保数据处理的安全与可信。
为患者信任“兜底”
要在大范围内建立信任,就需要“最小可行性保障”——即把抽象的治理原则转化为用户看得见、摸得着的安全信号。以下三个现成可用的指标有助于实现这一目标:
- 临床医生否决率。来自实际应用的证据证实,追踪医生拒绝AI建议的频率,是衡量模型可靠性的一个务实信号。2025年Diagnostics杂志的一项研究构建了一个AI信任框架,发现,否决模式直接反映了医生的怀疑程度:面对透明可信的AI,否决率仅为1.7%;而面对不透明的AI,否决率则高达73%以上。这表明,否决率可以作为一项切实可行的安全指标。
- 审计追踪可见性。世界卫生组织发布的《医学领域人工智能的伦理与治理:多模态大模型指南》强制要求建立审计和人工监督机制,这为模型层面的日志记录和可验证的问责制奠定了基础。欧盟《人工智能法案》也呼应了这一原则,并在新加坡卫生部TRUST环境等平台上得以实施,使用户可以验证问责制。
- 患者理解度评分。信息是否足够清晰,会直接影响患者是否会执行建议,无论是服药指令还是数字医疗中的自我管理步骤。通过简单的“复述确认”环节(集让患者确认他们听懂了),可以将这一原则转化为可衡量的保障信号。在患者按照AI建议采取行动前验证其理解程度,可以为安全性和信任度提供一个切实可行的检查点。
AI医疗相关政策应如何发展?
随着各国在医疗卫生系统中部署AI,治理必须将患者信任作为一项核心绩效指标,并以此作为核心的指导原则。这需要我们实现一个根本性的转变:我们要从单纯测量技术效能,转向评估患者对AI应用的信任度。
目前的评估体系仍侧重于模型的准确率和效率。然而,现实中AI能否得到普及,实则主要取决于工具用起来是否让人感到安全和公平。为了弥合这一差距,政策必须强制要求在技术验证的同时,进行持续的信任保障;不能只靠单次监查,而要对其现实影响进行长期监测。
关键行动包括:
- 将公平性付诸实践:系统性地追踪并解决老年人和低收入人群使用率较低的问题,即便这些工具是免费的也应如此。
- 建立可见的申诉渠道:为患者建立明确的路径来质疑或挑战AI的输出结果,将生硬的合规条文转化为用户切实的控制权。
- 化解“数字不适感”:尤其是在心理健康领域,医患双方的迟疑可能会让AI从沟通工具变成阻碍,反而拉大医疗服务的鸿沟。
数字医疗的下一阶段将不再取决于实验室中算法的性能,而是取决于临床应用中用户的信任度。治理的切实可行必须能够落地,而不仅仅是纸上谈兵。如果我们希望AI能够真正发挥其应有的作用,就必须将“信任”的理念植入到每一次交互的细节之中。
本文作者:
Adriana Banozic-Tang,新加坡管理大学兼职教师
本文原载于世界经济论坛Agenda博客,转载请注明来源并附上本文链接。
不要错过关于此主题的更新
创建一个免费账户,在您的个性化内容合集中查看我们的最新出版物和分析。
许可和重新发布
世界经济论坛的文章可依照知识共享 署名-非商业性-非衍生品 4.0 国际公共许可协议 , 并根据我们的使用条款重新发布。
世界经济论坛是一个独立且中立的平台,以上内容仅代表作者个人观点。
实时追踪:
Artificial Intelligence-Facilitated Healthcare
分享:
每周 议程
每周为您呈现推动全球议程的紧要问题(英文)







