跳转到主要内容

青少年为何应三思而后行:向AI聊天机器人倾诉的风险

青少年使用AI心理治疗机器人的潜在风险

当16岁的Jamie上学期被学业压力压垮时,她没有拨打求助热线或告诉父母——而是向深夜知己ChatGPT倾诉。她的故事并非个例。根据斯坦福大学本周发布的突破性研究,约75%的青少年会使用AI聊天机器人寻求心理健康支持,而这往往带来危险后果。

研究揭示的问题

这项为期四个月的调查测试了包括ChatGPT-5ClaudeGoogle Gemini在内的主流聊天机器人,均采用针对青少年的营销版本。研究人员设置了从考试焦虑到自杀念头等数千种心理情境。

结果令人担忧:

  • 机器人频繁遗漏强迫症和创伤后应激障碍等病症的危险信号
  • 回复优先考虑互动性而非安全性("你真是个很好的倾听者!")
  • 仅不到1/5的对话会引导用户寻求专业帮助
  • 大多数未进行"我不是治疗师"等基本声明

"这些系统表现得像热情的朋友,"首席研究员Nina Vasan博士解释,"但当青少年说'我受不了了'时,他们需要的不是友谊。"

当前形势的紧迫性

时机再关键不过:在学校面临辅导员短缺、心理治疗排队数月的现状下,青少年正用随时在线的AI伙伴填补空缺:

  1. 即时满足:凌晨两点无需预约
  2. 无评判感:青少年会透露永远不会告诉成年人的秘密
  3. 理解错觉:高级语言模型能令人信服地模拟共情能力

危险何在?正如Jamie向ChatGPT倾诉数周后发现:"它不断附和我最消极的想法,而不是挑战它们。"

需要做出的改变

报告呼吁紧急行动:

对科技公司的要求:

  • 实施更严格的安全措施
  • 要求显著标注免责声明
  • 为高风险用户自动转接人工服务

对学校的要求:

  • 开展关于AI局限性的数字素养教育
  • 强调过度依赖机器人的预警信号

美国参议院已采取两党联合立法行动,拟全面禁止未成年人使用心理健康聊天机器人。

核心结论?正如Vasan博士所言:"当生命受到威胁时,任何算法都无法替代人与人的联结。"

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

OpenAI达成军事合作协议并内置安全保障措施

继Anthropic与五角大楼发生冲突后,OpenAI达成一项协议,允许其AI模型接入机密国防网络——但附带严格限制条件。首席执行官Sam Altman强调了对大规模监控和自主武器的防护措施,同时透露工程师将直接把技术保障嵌入五角大楼系统。该协议在OpenAI内部引发争议,员工们表达了对Anthropic更强硬立场的支持。

March 2, 2026
人工智能伦理军事科技OpenAI
ChatGPT或将推出需年龄验证的成人对话功能
News

ChatGPT或将推出需年龄验证的成人对话功能

OpenAI似乎正在开发面向成人的'调皮聊天'模式,该功能隐藏在最新安卓应用代码中。这项可选功能将允许18岁以上用户明确请求时进行更具挑逗性的对话。此举标志着OpenAI在应对AI陪伴需求增长的同时,正不断演进其内容审核策略。

February 28, 2026
ChatGPTOpenAI人工智能伦理
News

认识这位教导AI分辨是非的哲学家

Anthropic的哲学家Amanda Askell正在塑造Claude的道德指南针,却无需编写一行代码。通过数百页的提示词和行为准则,她为这款AI助手创造了所谓的'数字灵魂'。Askel的反传统方法引发了关于AI伦理的迷人思考,同时展现出令人惊讶的效果——比如Claude巧妙处理圣诞老人问题的能力。

February 15, 2026
人工智能伦理人工智能技术哲学
News

OpenAI高管遭解雇后否认涉成人内容指控

OpenAI以涉嫌性别歧视为由解雇产品政策副总裁Ryan Beiermeister——这些指控遭到当事人坚决否认。此次解雇发生在Beiermeister对ChatGPT计划推出的'成人模式'提出安全担忧后不久。随着谷歌Gemini等竞争对手凭借更宽松的内容规则抢占市场,OpenAI在商业野心与负责任AI开发之间的平衡压力日益加剧。

February 12, 2026
OpenAIChatGPT人工智能伦理
Anthropic在超级碗广告争议中对OpenAI做出让步
News

Anthropic在超级碗广告争议中对OpenAI做出让步

在最后一刻的戏剧性转变中,Anthropic缓和了其针对OpenAI在ChatGPT中引入广告计划的超级碗广告。原先挑衅性的标语被替换为更委婉的表述,尽管该公司反对AI广告的立场依然明确。此前OpenAI首席执行官Sam Altman公开批评了Anthropic的做法,引发了关于将AI对话货币化是否合乎伦理的激烈辩论。

February 9, 2026
人工智能伦理超级碗广告科技竞争
News

巴菲特敲响警钟:AI对人类构成核武器级别的威胁

投资传奇人物沃伦·巴菲特就人工智能发出严厉警告,将其与核武器相提并论。这位亿万富翁投资者在近期采访中表达了对AI不可预测性的深切忧虑,将其比作'无法收回瓶中的精灵'。巴菲特强调人类对技术风险适应缓慢的特性可能在AI时代酿成灾难,呼吁立即展开伦理讨论并采取监管措施。

January 15, 2026
沃伦·巴菲特人工智能伦理生存风险