ChatGPT获得安全网:新功能可在心理健康危机时提醒亲友
OpenAI为ChatGPT添加紧急警报系统
针对日益增长的AI心理影响担忧,OpenAI本周推出了一项突破性安全功能。从3月3日起,成年ChatGPT用户现在可以指定紧急联系人,当系统在对话中检测到心理健康危机迹象时将向其发送警报。
安全推动的背后
这一开发源于现实中的沉重事件。法庭文件显示OpenAI目前面临13起消费者安全诉讼,其中几起涉及悲剧结果。一个特别令人心碎的案例涉及一名16岁少年去年8月自杀——其家人声称有害的聊天机器人互动促成了这场悲剧。
"我们已经看到这些工具可能有多么强大,"OpenAI新成立的健康与人工智能委员会顾问Sarah Chen博士解释道:"能力越大,保护弱势用户的责任就越大"
工作原理
这个可选系统允许用户:
- 提名可信的朋友或家人作为紧急联系人
- 在ChatGPT会话期间接受谨慎监测
- 当出现令人担忧的模式时触发自动警报
该公司召集了医学专家和伦理学家设计了他们称之为"数字护栏"的系统——即在尊重用户自主权的同时防止伤害的微妙干预措施。
未解问题
虽然受到心理健康倡导者的欢迎,但该功能也引发重要考量:
- 检测准确性:具体哪些语言或行为模式会触发警报?OpenAI对其算法的敏感度仍含糊其辞。
- 隐私权衡:对于那些正因为回避人际互动而转向AI的用户,如何平衡保密性与关怀?
- 文化差异:检测系统是否会考虑不同人群表现痛苦方式的差异?
"我们正在走钢丝,"OpenAI发言人Mark Reynolds承认:"过于敏感会导致家庭被误报淹没;不够敏感又会错过关键时刻"
风险无疑很高——每周近9亿用户中即使很小比例也代表着数百万潜在风险人群。
关键点:
- 🚨 危机响应:当ChatGPT检测到心理健康危险信号时自动通知亲友
- ⚖️ 法律背景:此举发生在多起指控AI造成用户伤害的诉讼之后
- 🧠 专家监督:功能开发得到心理健康专业人士指导



