您所在的位置:首页  专家视点

赵付春:AI医疗误判怎么办?构建多层次、立体化的责任共担治理体系

日期:2025/09/18|点击:13

在临床一线,AI辅助诊断软件(如肺结节、糖网病筛查)已在数百家医院落地;AI驱动的药物研发平台正在加速新药创制;智能健康管理应用也走进了千家万户。据艾瑞咨询数据预测,到2025年,中国AI医疗核心市场规模将突破千亿元大关。

然而,在这片由数据和算法绘制的宏伟蓝图之下,潜藏着一层浓厚的责任“迷雾”。当AI系统出现误判,导致患者延误治疗或遭受不当处置,谁来承担这个责任?是开发算法的科技公司,是使用工具的临床医生,还是采购系统的公立医院?这个问题不仅拷问着现有的法律框架和伦理准则,更直接关系到医生是否敢用、医院是否敢买、患者是否敢信,成为决定AI医疗发展的关键瓶颈。

一、AI医疗在中国的“三重困境”

当前中国的AI医疗发展,既面临着全球共性的技术难题,也叠加了自身独特的医疗体制、法律环境和社会文化因素,面临三重困境:

困境一:法律主体的真空与归责原则的失灵

中国现行法律体系,无论是《民法典》中的侵权责任篇,还是《医疗纠纷预防和处理条例》,其责任主体都清晰地指向“人”——医疗机构及其医务人员。然而,AI作为一个复杂的算法系统,不具备法律人格,无法成为独立的责任主体。这就造成了法律上的“主体真空”。

例如:当AI辅助诊断系统将恶性肿瘤误判为良性,导致患者错过最佳治疗时机时,传统的归责原则面临失灵的窘境:

-归责于医生?医生仅是AI的使用者,而非开发者。如果医生已尽到合理的注意义务,遵循了操作规范,却因算法的“黑箱”特性无法预知其错误,让医生承担全部责任显然有失公允,也会严重打击临床应用AI的积极性。医生担心使用AI后,一旦出错,自己就成了“背锅侠”,这种“不敢用”的心态正在无形中阻碍技术落地。

-归责于医院?医院作为AI的采购方和管理方,对技术细节知之甚少。要求医院为算法的深层缺陷负责,超出了其专业管理能力范畴,也可能导致医院因畏惧风险而拒绝引进先进技术。

-归责于开发者?看上去是最合理的方向,但实践中障碍重重。开发者会以“产品说明书中已标注准确性非100%”、“医生拥有最终决策权”等理由进行抗辩。另外,要证明是算法本身存在“缺陷”而非医生使用不当,需要复杂、昂贵的技术鉴定,而目前国内缺乏权威的第三方AI医疗产品鉴定机构。我国《产品质量法》对“产品缺陷”的界定,能否直接套用于不断学习、动态演进的AI软件,本身就是一个法律前沿问题。

困境二:数据、算法黑箱与证据认定的难题

AI医疗的核心是数据,而中国的医疗数据分散在不同医院、不同系统中,标准不一,质量参差不齐。基于这些数据训练出的AI模型,其有效性和泛化能力本身就存疑。更关键的是,许多先进AI模型(尤其是深度学习模型)的决策过程如同一个“黑箱”,即使开发者也无法清晰解释其得出某一具体结论的完整逻辑。

这种“黑箱”特性给现行司法实践带来了巨大挑战。在医疗纠纷诉讼中,“举证责任”是核心。按照“谁主张,谁举证”的原则,患者需要证明医院的诊疗行为存在过错并造成了损害。但当诊疗行为涉及AI时,患者如何证明是AI的算法出了错?医院和开发者又如何自证清白?由于缺乏透明、可解释的决策日志,法庭很难对AI的行为进行客观审查。这可能导致两种极端结果:要么因证据不足,患者维权无门;要么因技术恐惧,法院在事实不清的情况下倾向于判决医院和医生败诉,加剧医患矛盾。

困境三:审批与监管滞后于临床实践

近年来,国家药品监督管理局(NMPA)在AI医疗产品审批上取得了长足进步。截至2024年底,NMPA已批准上百款AI医疗器械,主要集中在影像辅助诊断领域。这为AI的合法合规使用提供了基础。

然而,审批与监管的速度,难以追赶技术迭代和临床实践的超前。一方面,审批主要针对静态的、功能明确的辅助诊断软件,而对于那些能够持续学习、自我优化的动态AI,或者用于治疗决策、手术规划等更高风险领域的AI,审批路径和标准尚不明确。另一方面,监管往往侧重于“上市前”的安全性和有效性审查,而对于产品上市后在真实世界中的长期表现、算法是否发生“漂移”、如何进行持续监测和更新,则缺乏成熟的监管机制。这种“重审批、轻运维”的模式,使得AI产品在投入临床后,其责任风险处于一种动态变化、难以追踪的状态。

二、现实应对:分四步构建AI医疗风险治理

面对上述困境,医疗机构、技术开发者和相关方必须主动作为,构建一个多层次、立体化的风险治理体系,在迷雾中点亮前行的灯塔。

第一步:内部风控——医疗机构应成为“智慧的守门人”

医疗机构是AI应用的最终场景,也是风险汇集的第一线,必须从被动接受者转变为主动的风险管理者。

首先,在采购任何AI产品前,医院应成立由临床专家、医学工程、信息科、法务和伦理专家组成的评估小组。评估不应只看宣传的准确率,更要进行“三维风险扫描”:1.功能风险:AI用在什么场景?是辅助筛查还是关键决策?一旦出错,后果有多严重?例如,用于癌症早筛的AI风险远高于用于皮肤美容分析的AI2.人机交互风险:医生使用这个AI有多方便?界面是否清晰?会不会因为信息过载或操作繁琐,反而增加医生犯错的机会?3.系统整合风险:AI能否与医院现有的HISPACS系统无缝对接?数据传输是否安全稳定?

在风险评估基础上,医院需要实施“人机协同”的精细化临床路径,明确AI是医生的“助手”,而非“替代者”。医院应制定严格的AI使用规范,规定在哪些环节必须由医生进行复核、确认和最终签字。例如,规定AI给出的“高风险”提示,必须由高年资医师进行二次阅片;AI生成的治疗方案建议,必须经过多学科团队讨论。这种“人在环路”(Human-in-the-Loop)的设计,是防止AI错误直接导致伤害的最后一道,也是最有效的一道防线。

最后,医院需要打造AI诊疗行为”的数字档案。针对AI的“黑箱”问题,医院应在技术层面要求开发商提供或自行建立“决策日志”系统。这个系统需要记录:每一次AI调用的时间、输入的患者数据、AI给出的初步结论、置信度分数,以及最终医生的决策和修改理由。这份档案不仅是未来可能发生纠纷时的关键证据,更是医院内部进行质量控制和持续改进的宝贵数据资产。

第二步:合作博弈——通过合同谈判明确责任边界

对于大多数医院而言,AI技术是外购的。因此,与技术开发者签订一份权责清晰、风险共担的采购合同,是转移和锁定风险的关键环节。双方在合同中应谈妥以下关键条款:1.透明度条款:强制要求开发者提供详尽的技术文档,包括但不限于:训练数据的来源、构成和代表性;算法的基本原理和局限性;产品的预期使用场景和禁忌症。拒绝接受以“商业机密”为由的过度信息封锁。2.责任划分条款:这是合同的核心。应明确界定,损害是由于产品本身存在设计或算法缺陷、还是医生或医院未能按规程操作等不同原因导致,如何按过错比例分担责任。3.保障条款:要求开发者购买足额的“AI医疗产品责任险”,并将医院列为共同被保险人。合同中应明确最低保额,确保一旦发生大规模赔偿事件,有足够的财务能力覆盖损失。同时,应约定开发者提供持续的“售后监测”服务,定期向医院报告AI产品在真实世界中的性能表现,并对发现的重大问题及时进行修复和更新。

第三步:以知情同意构建医患信任基石

AI时代,医患关系面临新的考验。患者有权知道,关乎自己生命健康的决策中,是否有AI的参与。

1.将“AI使用”纳入知情同意流程:医院应修订现有的《知情同意书》,在涉及使用AI辅助诊断或治疗的环节,增加专门条款。用通俗易懂的语言向患者说明,例如“您的诊疗过程中,我们将使用一种名为‘XXX’的人工智能辅助系统,它可以帮助医生更准确地分析您的影像/数据。”“该系统由XX公司开发,已获得国家药品监督管理局的批准”等。

2.解释AI的“不确定性”:主动告知患者,如同任何医疗手段一样,AI并非100%准确,存在误判的可能。这种坦诚不仅可以增强患者的信任感,也为未来可能发生的纠纷,提前铺平了沟通的道路,证明医院已尽到告知义务。

3.提供沟通渠道:鼓励患者就AI的使用提出疑问,并由医生或指定人员进行解答。将AI从一个神秘、冰冷的“黑箱”,转变为一个可被理解、可被讨论的“工具”,是消除患者疑虑、促进和谐医患关系的关键一步。

第四步:回归本源——将安全置于技术之上

AI医疗的探索中,必须始终将“安全第一”的原则置于技术炫酷和商业利益之上。

1.遵循并参与制定AI安全评估指南:积极跟踪并采纳国家卫健委、工信部等部委发布的关于人工智能在医疗领域应用的伦理规范和安全指南。同时,有条件的医疗机构和行业组织,应主动参与相关标准和指南的制定工作,将一线实践中发现的风险和挑战反馈给政策制定者,推动形成更科学、更实用的行业规范。

2.建立“不良事件”内部报告与学习机制:借鉴航空业的“无惩罚”报告制度,鼓励医生、护士在使用AI过程中,主动报告任何可疑的误报、漏报或系统异常。医院应设立专门渠道收集、分析这些报告,其目的不是为了追责,而是为了发现潜在的系统风险,及时向开发者反馈,并优化内部使用流程,从而实现从错误中学习,持续提升AI应用的安全性。

3.审慎对待高风险AI应用:对于直接参与治疗决策(如自动调整药物剂量)、控制手术机器人等高风险AI,应采取更为谨慎的态度。在初期,应严格限制在临床试验和少数顶尖研究型医院内,在严密的伦理审查和专家监督下进行探索,待技术和监管成熟后再考虑推广。

三、政策建议

要驱散责任迷雾,仅靠市场主体的自我调节是不够的,更需要政府层面的顶层设计和制度创新。为此,我们提出以下政策建议:

第一,加快AI医疗专项立法研究。

建议立法部门和主管部门牵头,组织法学、医学、计算机科学等领域的专家,启动《人工智能医疗技术应用管理条例》的立法研究。该条例应明确AI的法律地位、各方主体责任划分、数据隐私保护、算法透明度要求、损害赔偿标准等核心问题,为AI医疗提供清晰、稳定的法律预期。

第二,构建“审批-监管-再评价”的全链条管理体系。

建议国家药监局逐步建立AI医疗器械的“全生命周期”监管模式。不仅要严把上市审批关,更要建立上市后的主动监测、性能追踪和定期再评价制度。对于高风险AI,可考虑引入“有条件批准”机制,要求企业在真实世界中持续收集数据,证明其长期安全有效。

第三,设立国家级AI医疗技术鉴定与仲裁中心。

针对AI医疗纠纷中技术鉴定难的问题,建议依托中国医学科学院等权威机构,设立一个独立的、中立的第三方技术鉴定中心。该中心应具备对AI算法进行审计、对决策日志进行分析、对技术缺陷进行认定的能力,为司法审判和纠纷调解提供专业、权威的技术支撑。

第四,推动“医疗责任险”与“AI产品责任险”的协同创新。

建议银保监会会同卫健委,指导保险公司开发适应AI医疗特点的新型保险产品。例如,推出“AI医疗综合责任险”,将医院的医疗责任险和科技公司的产品责任险进行捆绑,实现风险的共担和理赔流程的简化,为医疗机构和开发者提供更全面的财务保障。


来源:澎湃新闻2025-09-18

作者赵付春上海社会科学院信息所副研究员,数字经济研究室主任


文字:|图片:|编辑:

最新

热门

返回原图
/