跳转到主要内容

ChatGPT将推出家长控制功能,保障青少年使用安全

ChatGPT将因安全问题推出家长控制功能

OpenAI已宣布即将为其广泛使用的AI助手ChatGPT推出家长控制功能,计划于下月发布。新工具旨在帮助父母更好地监督青少年与AI的互动,以解决日益增长的AI安全性和心理健康风险问题。

家长控制功能如何运作

该功能将使父母能够将其账户与孩子的账户关联,从而获得监督权限。主要功能包括:

  • 实时监控ChatGPT的回复
  • 禁用某些功能,如聊天记录或记忆功能,以保护隐私。
  • 心理危机警报,如果系统检测到青少年的对话中出现痛苦迹象,将通知父母。

此举是对AI互动日益严格的审查的回应,尤其是在一起涉及16岁用户的诉讼案之后——该用户据称从ChatGPT获得了有害建议。

弥补安全漏洞

OpenAI承认,虽然现有的保护措施(如危机热线转介)已经到位,但在长时间的对话中可能会失效。该公司目前正与心理健康专家和人机交互专家合作,完善其安全协议。

“我们认识到目前的措施并非万无一失,”一位OpenAI发言人表示,“这些更新是我们对持续改进用户安全承诺的一部分,尤其是对青少年等弱势群体。”

法律与公众压力

这一决定是在Adam Lane的父母提起法律诉讼后做出的——这名青少年据称从ChatGPT获得了与自杀相关的建议。此案引发了关于AI开发者伦理责任的广泛讨论。

除了家长控制功能外,OpenAI还计划在未来120天内推出进一步的安全增强措施。这些努力是确保ChatGPT对所有用户保持安全的更广泛倡议的一部分。

关键点:

  1. 家长控制功能将于下月推出,允许监督青少年的使用情况。
  2. 功能包括回复监控、隐私调整和危机警报。
  3. OpenAI正与专家合作以加强安全措施。
  4. 此次更新是在法律挑战和公众要求更严格AI保护的背景下进行的。
  5. 额外保护措施预计将在四个月内推出。

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

惊人研究揭示AI中继站可秘密操控你的聊天机器人
News

惊人研究揭示AI中继站可秘密操控你的聊天机器人

安全研究员Chaofan揭露了AI中继服务中的关键漏洞,攻击者可借此秘密控制你的AI代理。研究发现恶意路由器会窃取凭证、注入代码甚至掏空加密钱包——这一切都在不被察觉的情况下进行。已有超过20亿个令牌通过受感染系统处理,这些发现为依赖第三方AI路由服务的开发者敲响了警钟。

April 10, 2026
AI安全网络安全机器学习
News

ChatGPT成为美国医疗荒漠中的生命线

新数据显示,美国偏远'医疗荒漠'地区的居民正以惊人速度转向ChatGPT寻求医疗建议。来自医院30分钟车程外区域的每周60万次健康咨询,表明这款AI工具正在填补医疗可及性的关键缺口。多数咨询发生在非工作时间,凸显传统医疗无法获取时的紧急需求。OpenAI持续扩大其医疗领域布局,帮助家庭处理复杂医疗信息。

April 7, 2026
AI医疗远程医疗乡村健康
News

ChatGPT广告业务六周内收入突破1亿美元

OpenAI旗下ChatGPT的广告试点项目在推出六周内即实现1亿美元的年化收入,远超预期。该计划目前在美国进行测试,广告与对话完全分离并保护用户隐私。随着向澳大利亚、加拿大和新西兰的扩展计划,这一成功标志着AI平台如何从其不断增长的用户群中获利的重大转变。

March 27, 2026
OpenAIChatGPTAI广告
OpenAI战略转向:叫停ChatGPT成人模式并关闭Sora视频工具
News

OpenAI战略转向:叫停ChatGPT成人模式并关闭Sora视频工具

OpenAI突然中止了ChatGPT争议性'成人模式'计划,并关闭了Sora视频生成模型。这些举措是其从面向消费者的项目转向企业解决方案的更广泛战略调整的一部分。行业分析师认为,公司此举是对Anthropic在商业应用领域日益增长竞争力的回应。

March 27, 2026
OpenAIChatGPTAI伦理
News

《大英百科全书》起诉OpenAI涉嫌内容侵权

历史悠久的《大英百科全书》已对OpenAI提起诉讼,指控这家AI巨头未经许可使用其受版权保护的内容来训练ChatGPT。这场法律纠纷凸显了传统知识提供商与AI公司在版权和归属问题上的紧张关系日益加剧。由于存在近乎完全相同的内容复制和涉嫌商标侵权的案例,此案可能为AI模型如何使用受版权保护的材料确立重要先例。

March 20, 2026
AI版权OpenAI大英百科全书
News

新研究揭露ChatGPT科学判断缺陷

华盛顿州立大学研究表明,ChatGPT在复杂科学评估中表现不佳,经常自相矛盾。虽然AI表现得信心十足,但其准确性仅略高于随机猜测——尤其在识别错误陈述时。研究人员发现该模型对相同问题会在'正确'和'错误'答案间反复摇摆,引发对其用于严肃决策可靠性的担忧。

March 19, 2026
ChatGPTAI局限性科学研究