顶级传染病专家警告:医疗AI需人类监督
医学专家对医疗领域无监管AI发出警告
在高山学院周年纪念医学论坛上,张文宏医生就人工智能在医学中的作用发表了发人深省的讲话。这位上海国家传染病医学中心主任警告不要将AI系统性地纳入常规医院诊断流程。

工具而非替代品
"我确实使用AI来复核病例,"张文宏坦言,"但我总会亲自验证结果。"凭借数十年的临床经验,他描述了人类专业知识如何经常能发现算法分析中遗漏的错误或偏见。
这位著名医师描绘了一幅令人担忧的画面:如果医院在没有适当保障措施的情况下自动化诊断会发生什么。"技术应该辅助医生,"他强调道,"而非取代他们的判断力。"
医学中的人类优势
张文宏的谨慎立场恰逢全球医疗系统越来越多地采用承诺更快诊断和降低成本的AI解决方案之际。然而他的发言指出了关键局限:
- 情境盲区:算法难以处理复杂的患者病史
- 创造力鸿沟:人类医生能做出机器无法复制的直觉飞跃
- 伦理维度:复杂的治疗决策需要道德推理
"你会想让算法决定你母亲的癌症治疗方案吗?"张文宏反问与会者。这个修辞性问题强化了他的核心论点——医学的某些方面需要人类的同理心和智慧。
寻找正确平衡点
这场辩论并非要全盘否定技术。张文宏承认AI在处理医学影像分析或数据分类等常规任务方面的潜力。但他划定了明确界限:绝不允许系统做出无人监督的临床决策。
解决方案是什么?一种协作模式:
- AI处理重复性分析工作
- 医生专注于患者互动和复杂病例
- 每个自动化诊断都经过人工审核
"最佳结果,"张文宏总结道,"来自我们将技术力量与人类洞察力相结合之时。"
关键要点:
- 需要关键监督:所有AI诊断都需医师验证
- 保持临床判断:医生必须避免成为"算法追随者"
- 发挥各自优势:让机器处理数据而人类提供护理
- 道德义务:改变人生的决策需要人类担责

