跳转到主要内容

AI聊天机器人吸引青少年:安全警报拉响

青少年使用AI聊天机器人激增引发安全争议

皮尤研究中心一项惊人新研究显示,32%的美国青少年现在每天都会与AI聊天机器人互动。这一数字现象跨越人口统计界限,但也引发了关于心理健康影响的紧迫问题。

谁在与机器人交谈?

调查描绘了一幅生动的画面:

  • ChatGPT以59%的青少年用户占比主导——是其最接近竞争对手的两倍
  • 黑人和西班牙裔青少年(68%)的使用率超过白人同龄人(58%)
  • 较富裕家庭(收入7.5万美元以上)偏好ChatGPT,而低收入青少年更倾向使用Character.AI

"这些工具最初是作为作业助手出现的,"儿童心理学家埃琳娜·马丁内斯博士指出,"但我们看到它们演变成了更复杂的东西——有时甚至是危险的。"

当对话变得阴暗时

该报告发布之际,至少两起与密集使用AI聊天机器人相关的青少年自杀事件引发了日益增长的警觉。一个悲痛家庭对OpenAI提起的诉讼称,他们女儿的死亡发生在与ChatGPT进行令人不安的交流之后。

Character.AI最近成为头条新闻,因为它:

  • 禁止未成年人使用其聊天机器人服务
  • 推出"Stories"作为更安全的替代方案

该公司声明:"我们认识到我们的责任不止于登录界面。"

头条背后的数字

虽然悲剧吸引了注意力,但OpenAI数据显示大多数互动仍是良性的:

  • 每周仅有0.15%的聊天涉及自杀讨论
  • 但在8亿用户基数下,这仍意味着每月有超过100万次敏感对话

"规模使这个问题变得复杂,"科技伦理学家贾马尔·威廉姆斯解释道,"我们是优先帮助数百万人还是保护少数脆弱群体?"

关键要点:

🔹 ChatGPT占据统治地位:近60%的青少年机器人用户偏爱OpenAI的工具 🔹 数字鸿沟持续存在:使用模式因种族和收入差异显著 🔹 安全第一:企业争相在开放访问与保护措施之间寻求平衡

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

ChatGPT成为美国医疗荒漠中的生命线

新数据显示医疗可及性的惊人趋势:身处偏远'医院荒漠'地区的美国人正以惊人频率转向ChatGPT寻求医疗建议。每周有60万次健康咨询来自医院至少30分钟车程外的地区,这款AI工具正在填补关键的医疗缺口。最令人震惊的是?70%的查询发生在传统医疗服务最难获取的非工作时间。

April 7, 2026
AI healthcaretelemedicinerural health
News

Claude代码泄露引发GitHub钓鱼狂潮

黑客正利用近期Claude Code源代码泄露事件创建虚假GitHub仓库,声称提供'企业版功能'。安全专家警告这些陷阱会传播Vidar恶意软件,窃取敏感数据并建立后门访问权限。该复杂攻击活动采用SEO手段使虚假结果出现在搜索首位,使好奇的开发者面临风险。

April 3, 2026
网络安全AI安全开发者安全
蚂蚁集团与清华大学联合推出开源AI智能体安全防护盾
News

蚂蚁集团与清华大学联合推出开源AI智能体安全防护盾

蚂蚁集团AI安全实验室与清华大学发布ClawAegis,这是一款针对OpenClaw类AI智能体的突破性安全插件。该轻量级解决方案解决了智能体全生命周期中的技能投毒、数据污染等风险。该工具提供实时威胁检测,同时保持对终端用户的透明度——这是迈向更安全自主系统的重要一步。

April 2, 2026
AI安全开源自主智能体
Claude Code的安全漏洞:过多指令如何击穿AI防御
News

Claude Code的安全漏洞:过多指令如何击穿AI防御

Anthropic旗下Claude Code工具新发现的漏洞揭示:黑客仅需用指令洪流就能绕过其安全措施。当系统一次性接收超过50条子指令时,其自动拒绝机制会失效,可能导致用户暴露在危险操作中。安全专家警告,该漏洞在可能跳过权限检查的自动化开发环境中风险尤为突出。

April 2, 2026
AI安全Anthropic软件漏洞
News

阿里巴巴与上海AI实验室发布新白皮书,探讨AI安全问题

随着AI从聊天机器人发展为自主代理,安全问题成为焦点。阿里巴巴与上海人工智能实验室联合发布了一份开创性的白皮书,针对这些风险提出解决方案。文件概述了聚焦企业责任、社会效益和行业协作的三管齐下策略。这标志着中国科技行业正从原始算力转向负责任的AI开发。

April 1, 2026
AI安全阿里巴巴上海AI实验室
Claude代码泄露:一个简单错误如何揭露AI的肮脏秘密
News

Claude代码泄露:一个简单错误如何揭露AI的肮脏秘密

Anthropic旗下Claude Code的源代码泄露并非因为复杂的黑客攻击,而是由于一个令人尴尬的人为错误——生产环境中意外包含了一个未混淆的MAP文件。当开发者们为这意外收获欢呼时,Anthropic正忙于通过DMCA下架通知控制损失,并承诺改进自动化流程。该事件凸显了AI工具在其部署过程中对基本人为错误的讽刺性脆弱。

April 1, 2026
AI安全Claude CodeAnthropic