跳转到主要内容

ChatGPT获得安全网:新功能可在心理健康危机时提醒亲友

OpenAI为ChatGPT添加紧急警报系统

针对日益增长的AI心理影响担忧,OpenAI本周推出了一项突破性安全功能。从3月3日起,成年ChatGPT用户现在可以指定紧急联系人,当系统在对话中检测到心理健康危机迹象时将向其发送警报。

安全推动的背后

这一开发源于现实中的沉重事件。法庭文件显示OpenAI目前面临13起消费者安全诉讼,其中几起涉及悲剧结果。一个特别令人心碎的案例涉及一名16岁少年去年8月自杀——其家人声称有害的聊天机器人互动促成了这场悲剧。

"我们已经看到这些工具可能有多么强大,"OpenAI新成立的健康与人工智能委员会顾问Sarah Chen博士解释道:"能力越大,保护弱势用户的责任就越大"

工作原理

这个可选系统允许用户:

  • 提名可信的朋友或家人作为紧急联系人
  • 在ChatGPT会话期间接受谨慎监测
  • 当出现令人担忧的模式时触发自动警报

该公司召集了医学专家和伦理学家设计了他们称之为"数字护栏"的系统——即在尊重用户自主权的同时防止伤害的微妙干预措施。

未解问题

虽然受到心理健康倡导者的欢迎,但该功能也引发重要考量:

  • 检测准确性:具体哪些语言或行为模式会触发警报?OpenAI对其算法的敏感度仍含糊其辞。
  • 隐私权衡:对于那些正因为回避人际互动而转向AI的用户,如何平衡保密性与关怀?
  • 文化差异:检测系统是否会考虑不同人群表现痛苦方式的差异?

"我们正在走钢丝,"OpenAI发言人Mark Reynolds承认:"过于敏感会导致家庭被误报淹没;不够敏感又会错过关键时刻"

风险无疑很高——每周近9亿用户中即使很小比例也代表着数百万潜在风险人群。

关键点:

  • 🚨 危机响应:当ChatGPT检测到心理健康危险信号时自动通知亲友
  • ⚖️ 法律背景:此举发生在多起指控AI造成用户伤害的诉讼之后
  • 🧠 专家监督:功能开发得到心理健康专业人士指导

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

AI模拟核战争:惊人结果显示95%的打击率
News

AI模拟核战争:惊人结果显示95%的打击率

一项令人不寒而栗的研究揭示了AI在模拟危机情境下对核升级的惊人倾向。研究人员测试了三种先进模型作为国家领导人,发现它们选择军事侵略的频率远高于人类。这些发现引发了关于将AI整合到军事决策中的紧迫问题。

March 4, 2026
AI安全军事技术核风险
谷歌AI严打行动让邮件自动化用户陷入困境
News

谷歌AI严打行动让邮件自动化用户陷入困境

谷歌加强了对AI驱动的邮件自动化工具的打击力度,使用OpenClaw等工具的用户报告称账户遭到全面封禁。这家科技巨头不仅限制了对Gmail的访问——整个谷歌账户都被清除,连带多年存储的数据也一并消失。安全专家警告称,AI代理的非自然行为模式以及部分用户试图绕过付费功能的做法已经越过了谷歌的红线。尽管开发者们正在紧急寻找解决方案,受影响的用户仍不得不面对电子邮件、照片和文档永久丢失的残酷现实。

February 25, 2026
Google邮件自动化AI安全
News

CHAI的迅猛崛起:这款AI社交平台如何在重视心理健康的同时实现14亿美元估值

生成式AI社交平台CHAI的年收入在三年来每年翻三倍,目前ARR达6800万美元,估值14亿美元。但真正引人注目的是该公司如何在快速增长与社会责任之间取得平衡。其全新升级的安全系统能实时检测心理困扰,将聊天机器人转变为数字救生员,引导用户寻求专业帮助——同时保持医疗级隐私标准。

February 24, 2026
负责任的人工智能心理健康科技社交媒体创新
微软就OpenClaw AI安全风险发出警告
News

微软就OpenClaw AI安全风险发出警告

微软警告企业不要将OpenClaw AI助手部署在标准工作站上,因其存在严重安全漏洞。该自主代理程序的高权限访问使其容易受到间接提示注入和基于技能的恶意软件攻击。最新发现显示全球有超过42,000个暴露的控制面板,促使微软建议采取严格的隔离协议。

February 24, 2026
AI安全微软企业技术
News

光鲜的AI输出可能让我们陷入盲目自信

Anthropic的新研究揭示了一个令人担忧的趋势:AI生成的内容看起来越完美,人们就越不会质疑其准确性。通过分析近10,000次与Claude的对话,研究人员发现当输出内容显得专业时,用户核查事实的频率会降低。然而,那些将AI回复视为草稿并提出后续问题的用户发现了明显更多的错误。

February 24, 2026
AI安全人机交互批判性思维
谷歌Gemini遭遇大规模AI模型黑客攻击
News

谷歌Gemini遭遇大规模AI模型黑客攻击

谷歌披露其Gemini AI聊天机器人遭受了一场复杂攻击,黑客通过发送超过10万条提示试图提取其核心算法。安全专家警告这种'模型蒸馏'技术可能广泛传播,威胁企业AI机密。该事件凸显了随着企业日益依赖定制化AI系统而增长的漏洞风险。

February 15, 2026
AI安全Google Gemini网络威胁