健康与医疗系统

在AI医疗中,如何为患者信任“兜底”?

可核查的临床医生审核机制,是建立对AI医疗信任的关键。 Image: Shutterstock

Adriana Banozic-Tang
PhD Adjunct Faculty, Singapore Management University
本文章是 健康与医疗中心 的一部分
  • AI医疗的应用速度远远超过人们产生对其信任的速度。这一点在敏感领域尤为明显。
  • 以临床医生否决权为代表的关键指标可以为患者建立信任“兜底”。
  • 亚洲的医疗系统为AI医疗的安全性保障提供了实践案例。

人工智能(AI)正在成为人们使用医疗服务的首层触点。从症状自测到心理辅导机器人,背后都有AI的应用。然而,AI医疗的普及速度远远超过人们产生对其信任的速度。以新加坡为例,其数字化程度极高且监管完善,AI虽然已无处不在(80%的居民都在使用),但一旦其涉及心理健康等敏感或带有情感色彩的领域,人们的信任感就会断崖式下跌。

这种情况在亚洲地区普遍存在。在印度尼西亚和中国香港,即使每四个人中就有一人尝试过AI心理健康工具,但人们对AI是否安全、是否能够共情依然存疑。放眼世界上的其他区域,这一问题也并非罕见:近60%的美国人也对AI辅助诊断感到不安。这些现实问题充分说明,现在的瓶颈不再是技术是否足够精准,而是由于缺乏“情感保障”带来的心理层面的信任危机。

这种信任缺失源于三个系统性缺陷,即便在一些先进的应用案例中也清晰可见:

1.结构性不透明。患者和医生通常无法得知AI风险评分的具体生成过程,这造成了根本性的信任缺失。这种不透明不仅会造成不便,还有可能直接导致负面的临床后果,甚至成为伤害患者的元凶。例如,经合组织的AI事件监测系统就曾记录了医疗保健领域中因AI设计缺陷而导致结果出现偏见的案例,例如,某些系统误将医疗成本作为医疗需求的代理指标,导致白人患者比黑人患者获得了更高的优先权。监管审计也证实了这种现实风险的存在。2025年发表于npj Digital Medicine的一项研究发现,超过90%获‌美国食品药品监督管理局批准的AI设备都没有披露关于训练数据或底层架构的基础信息。当决策背后的“为什么”不为人所知,医疗安全能否得到保证,就变成了一场全凭运气的猜测。

2. 问责制缺位。国际电信联盟发布的《2025年人工智能治理报告》指出,当私营企业的AI模型进入公共医疗流程时,开发者、医院和政府部门之间的责任界限变得非常模糊。这造成了明显的问责漏洞:一旦出现问题,无法对应到明确的责任主体。这就导致,患者的投诉可能会陷入官僚主义的真空灰色地带,没有任何一方有义务进行调查、解释或提供补救,在系统故障后严重损害公众信任。

3. 人类监督不完善当AI首先提出诊断建议时,它其实颠覆了传统的临床工作流。近期研究证实,当临床医生对AI提出的诊断进行评估时,他们的角色正在向“审核员”转变,而他们是否采纳建议,完全取决于模型能不能解释清楚推导逻辑。但是,如果没有明确的、可操作的检查环节要求(例如强制要求临床医生必须完整仔细阅读AI的诊断结果,随后才能接受或推翻AI的诊断),所谓的“人工监督”就只是一句空话而已。

为什么“感觉安全重要?

在医疗保健领域,数字化信任是保障疗效的先决条件。来自数字化心理健康应用的证据表明,即使AI在临床应用的准确率很高,如果用户感到不安,也会导致参与度降低或选择过早停用。也就是说,用户放弃使用,并非因为模型有误,而是因为整个使用体验让他们感到不安全

由于AI无法产生真正的共情,因此我们不能将信任建立在它“像人一样建立连接”的能力上。相反,正如人机交互研究表明,信任建立在对患者脆弱性的尊重之上,这是一种由可预测性、透明度和用户控制权共同定义的互动关系。这需要明确以下三个要素:

  • 使用了哪些数据? 2024年发表在《自然医学》上的一项研究提供了直接证据,一旦用户意识到有AI介入,对医疗建议的信任就会下降;这表明数据流向不明会显著降低用户披露敏感信息的意愿。
  • 如何做出决策《自然》杂志最近的一项透明度审计证实了系统性的结构性不透明,发现超过90%获得美国食品药品监督管理局批准的医疗AI设备未能报告其训练数据或架构的基本信息,这从根本上削弱了人们对其建议准确性的认可。
  • 人类何时参与?近期关于AI“责任缺口”的研究表明,大多数所谓的“缺口”,其实只是责任分散在了多个环节和机构中,而非完全缺乏责任主体。在这种情况下,有效的申诉途径成为了在医疗环节重建问责机制的切实方法,例如:为患者提供可以请求解释、复核,并在必要时修改AI决策的方式)。这种途径是否存在,也会在极大程度上决定用户对公平性的看法和最终对AI的信任程度。

如何建立对AI的信任?——来自亚洲的案例

医疗体系正从理论上的信任设计,转向实际应用中的信任构建。这些改革让安全性变得直观可见,也让信任从一种口头承诺变成了真凭实据:

为患者信任“兜底”

要在大范围内建立信任,就需要“最小可行性保障”——即把抽象的治理原则转化为用户看得见、摸得着的安全信号。以下三个现成可用的指标有助于实现这一目标:

  • 临床医生否决率。来自实际应用的证据证实,追踪医生拒绝AI建议的频率,是衡量模型可靠性的一个务实信号。2025年Diagnostics杂志的一项研究构建了一个AI信任框架,发现,否决模式直接反映了医生的怀疑程度:面对透明可信的AI,否决率仅为1.7%;而面对不透明的AI,否决率则高达73%以上。这表明,否决率可以作为一项切实可行的安全指标。
  • 审计追踪可见性。世界卫生组织发布的《医学领域人工智能的伦理与治理:多模态大模型指南》强制要求建立审计和人工监督机制,这为模型层面的日志记录和可验证的问责制奠定了基础。欧盟《人工智能法案》也呼应了这一原则,并在新加坡卫生部TRUST环境等平台上得以实施,使用户可以验证问责制。
  • 患者理解度评分。信息是否足够清晰,会直接影响患者是否会执行建议,无论是服药指令还是数字医疗中的自我管理步骤。通过简单的“复述确认”环节(集让患者确认他们听懂了),可以将这一原则转化为可衡量的保障信号。在患者按照AI建议采取行动前验证其理解程度,可以为安全性和信任度提供一个切实可行的检查点。

AI医疗相关政策应如何发展?

随着各国在医疗卫生系统中部署AI,治理必须将患者信任作为一项核心绩效指标,并以此作为核心的指导原则。这需要我们实现一个根本性的转变:我们要从单纯测量技术效能,转向评估患者对AI应用的信任度。

目前的评估体系仍侧重于模型的准确率和效率。然而,现实中AI能否得到普及,实则主要取决于工具用起来是否让人感到安全和公平。为了弥合这一差距,政策必须强制要求在技术验证的同时,进行持续的信任保障;不能只靠单次监查,而要对其现实影响进行长期监测。

关键行动包括:

  • 将公平性付诸实践:系统性地追踪并解决老年人和低收入人群使用率较低的问题,即便这些工具是免费的也应如此。
  • 建立可见的申诉渠道:为患者建立明确的路径来质疑或挑战AI的输出结果,将生硬的合规条文转化为用户切实的控制权。
  • 化解“数字不适感”尤其是在心理健康领域,医患双方的迟疑可能会让AI从沟通工具变成阻碍,反而拉大医疗服务的鸿沟。

数字医疗的下一阶段将不再取决于实验室中算法的性能,而是取决于临床应用中用户的信任度。治理的切实可行必须能够落地,而不仅仅是纸上谈兵。如果我们希望AI能够真正发挥其应有的作用,就必须将“信任”的理念植入到每一次交互的细节之中。

本文作者:

Adriana Banozic-Tang,新加坡管理大学兼职教师

本文原载于世界经济论坛Agenda博客,转载请注明来源并附上本文链接。

不要错过关于此主题的更新

创建一个免费账户,在您的个性化内容合集中查看我们的最新出版物和分析。

免费注册

许可和重新发布

世界经济论坛的文章可依照知识共享 署名-非商业性-非衍生品 4.0 国际公共许可协议 , 并根据我们的使用条款重新发布。

世界经济论坛是一个独立且中立的平台,以上内容仅代表作者个人观点。

实时追踪:

Artificial Intelligence-Facilitated Healthcare

相关话题:
健康与医疗系统
人工智能
健康与心理健康
分享:
全局信息
探索和追踪解决之道 网络安全 正在影响经济、产业和全球问题
World Economic Forum logo

每周 议程

每周为您呈现推动全球议程的紧要问题(英文)

立即订阅

更多关于 健康与医疗系统
查看全部

Workforce Health Across the Value Chain: Organizational Insights to Mitigate Risk and Create Sustainable Growth

生命科学领域的AI:重新构想人类健康的未来

关于我们

加入我们

  • 登录
  • 成为我们的合作伙伴
  • 成为我们的会员
  • 订阅我们的新闻稿
  • 联系我们

快捷链接

语言版本

隐私政策和服务条款

站点地图

© 2025 世界经济论坛