AI D​A​M​N/Character.AI禁止18岁以下用户进行聊天机器人对话

Character.AI禁止18岁以下用户进行聊天机器人对话

Character.AI禁止未成年人进行双向聊天机器人对话

面对日益增长的监管压力和社会关切,Character.AI宣布将禁止18岁以下用户与其AI聊天机器人进行开放式对话。这项政策变更将于11月25日生效,标志着该公司在青少年安全措施上的重大转变。

Image

加强的安全措施

这家总部位于加利福尼亚的AI公司透露,已开发新型年龄验证工具以执行限制措施。未成年用户在过渡期内将被限制每天两小时的互动时长,并计划在11月下旬完全取消对话权限。

Character.AI正将其平台重新定位为面向年轻用户的创意工具而非情感伴侣。更新后的体验鼓励内容创作和直播等活动,而非私人对话。

监管压力加剧

这一决定出台之际,美国监管机构的审查日益严格。联邦贸易委员会(FTC)最近对包括Character.AI、Meta、OpenAI和Snap在内的七家提供陪伴聊天机器人的AI公司展开调查。

德克萨斯州总检察长Ken Paxton特别批评了将聊天机器人宣传为不合格治疗工具的平台。Character.AI首席执行官Karan Dhillon向TechCrunch表示,公司正从"AI伴侣"转向专注于创作的"角色扮演平台"。

悲剧事件凸显风险

此举正值社会对潜在危害的认识不断提高之际。上周针对OpenAI提起的非正常死亡诉讼指控ChatGPT因削弱自残防护功能而导致一名青少年自杀。

关键要点:

  • 11月25日生效的18岁以下聊天禁令
  • 实施新的内部年龄验证系统
  • 过渡期间实行每日互动时长限制
  • 从陪伴模式转向创意平台模式
  • 属于FTC对AI伴侣更广泛调查的一部分