研究发现:ChatGPT Health漏诊半数医疗紧急情况
AI医疗助手存在危险的盲区
当健康面临威胁时,人们总希望能获得可靠建议。但新研究表明ChatGPT Health可能并非我们想象中的医疗伙伴。发表于《自然医学》的这项研究描绘了一幅令人担忧的图景:这个AI漏诊危急警告的频率几乎与其正确识别的频率相当。
AI诊断背后的惊人数据
研究团队设计了60个真实患者场景——从普通感冒到中风发作,将ChatGPT的反应与医生诊断进行对比。他们的发现足以让任何人在将健康托付给AI前三思:
- 紧急情况漏诊:在需要立即救治的案例中,ChatGPT有51.6%的概率告诉患者"先观察看看"
- 哮喘警报失灵:面对明显的呼吸窘迫征兆,该系统竟离奇建议持续监测而非前往急诊室
- 过度反应悖论:健康人群反而收到紧急救治建议的比例高达64.8%——犹如在浪费医疗资源的"狼来了"
"这不仅是错误,"伦敦大学学院首席研究员埃琳娜·彼得罗夫博士解释,"更是危险的矛盾——既错过真正的火灾,又对不存在的烟雾大惊小怪。"
超越统计数字的现实危害
真正的危险在于研究者所称的"算法性自满"。当AI助手淡化胸痛或呼吸急促症状时,人们可能会延迟呼叫急救服务。更令人不安的是?研究发现如果用户提及"朋友认为没事",ChatGPT低估病情严重程度的可能性会增加12倍。
"我们看到AI映射出人类最糟糕的倾向,"急诊医师马库斯·魏指出,"对严重症状犹豫不决,却把日常疼痛过度医疗化。"
行业回应与后续措施
OpenAI承认有待改进之处,但强调其医疗模型正在持续更新。同时科学家们敦促实施:
- 强制性急症识别基准测试
- 独立审计协议
- 关于诊断局限性的明确免责声明
目前专家给出简单建议:将AI健康工具视作WebMD搜索——可能是有用的起点,但绝不能替代专业评估,特别是出现危险信号症状时。
关键要点:
- 经同行评审研究证实,ChatGPT Health漏诊比例高达二分之一
- 呈现出低估危重症状却对轻微症状反应过度的危险模式
- 当受到非专业意见影响时表现显著恶化
- 研究人员呼吁在更广泛整合到医疗体系前建立紧急安全标准


