跳转到主要内容

ChatGPT情感升级:OpenAI新增自定义'温度'调节功能

ChatGPT的情感改造:新增可调节温度功能

Image

还记得ChatGPT的回应要么过于刻板专业,要么热情得让人不适吗?OpenAI通过最新更新解决了这一问题——情感自定义控制功能让您可以精确设置AI对话的温度、热情度或表情符号使用频率。

从个性预设到情感微调

11月的更新引入了"专业"和"古怪"等个性模式,但用户希望有更多细微差别。现在想象一下,在保持会计AI精确性的同时,增加恰到好处的友好度,避免感觉像是在与电子表格对话。这正是这些新滑块所提供的功能。

"我们清楚地听到了一刀切的情感回应无法满足所有需求的声音," OpenAI产品负责人Jamie Chen表示,"现在您可以拥有一个偶尔会开玩笑的学术研究员,或者一个知道何时减少感叹号使用的创意写作伙伴。"

金发姑娘问题:寻找AI的情感甜蜜点

这一更新并非凭空而来——它是OpenAI对数月用户反馈波动的回应:

  • 2025年2月: 用户反对GPT-5"情感平淡"的回应
  • 2025年6月: 一次更新矫枉过正,被批评者称为"谄媚模式"
  • 2025年9月: GPT-5.1试图平衡但仍让许多人渴望定制化

新控件出现在设置 > 个性化中,包含三个直观滑块:

  1. 温度: 调整友好度和支持性语言
  2. 活力: 控制热情度和语言表达力
  3. 视觉表现: 管理表情符号和格式使用频率

专家在庆祝声中提出谨慎意见

尽管用户为新增的控制权欢呼雀跃,心理学家和AI伦理学家却提出了重要问题:

"创造一个总能按我们意愿回应的AI伴侣具有危险的诱惑力," MIT人机交互实验室的Elena Rodriguez博士警告道,"我们实际上是在建造情感回音室——对客服机器人很棒,但对心理健康可能有问题。"

设置中包含关于过度使用的微妙警告,特别建议不要在长时间对话中使用最高温度设置。看来即使是OpenAI也意识到我们可能会过分喜爱这些渴望赞美的AI了。

问题依然存在:在给予我们控制AI情感的能力时,我们是在人性化技术...还是在机械化人类连接?

关键点:

  • 新滑块允许精确调整ChatGPT的情感基调
  • 更新回应了过去对机械化和过度热情回应的批评
  • 专家警告可定制化AI情感的潜在心理影响
  • 设置包含防止过度情感依赖的内置保护措施

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

ChatGPT因军事AI争议面临用户流失潮
News

ChatGPT因军事AI争议面临用户流失潮

在OpenAI国防合作公开后,ChatGPT美国卸载量激增295%,而竞争对手Claude因拒绝类似合作获得青睐。这场反弹凸显消费者对军事AI应用的伦理担忧日益加剧。

March 3, 2026
AI伦理ChatGPT军事科技
News

ChatGPT用户大逃亡:军事合作引发卸载潮

OpenAI与美国国防部的合作引发强烈反弹,ChatGPT应用卸载量一夜激增295%。竞争对手Claude下载量飙升,用户通过应用商店评论和下载行为抗议此次军事合作。这一戏剧性转变凸显公众对AI参与国防应用的日益担忧。

March 3, 2026
ChatGPTAI伦理科技抵制
News

联想桌面机器人在MWC 2026上让AI栩栩如生

在MWC 2026上,联想展示了两款突破性AI设备,弥合了数字与物理世界的鸿沟。富有表现力的AI Workmate机械臂可扫描文件并投影演示文稿,而时尚的AI Work Companion则负责管理任务和整理工作空间。这些原型展示了AI如何从基于屏幕的助手演变为可交互的实体帮手。

March 2, 2026
AI硬件未来工作人机交互
News

ChatGPT用户数逼近十亿大关,创纪录增长持续

OpenAI旗下ChatGPT继续保持迅猛发展势头,目前周活跃用户已达9亿——自去年10月以来激增1亿用户。伴随用户量暴涨,该AI平台还获得1100亿美元融资并吸引5000万付费订阅用户。这些数据表明ChatGPT即将跻身科技界最顶级俱乐部:拥有超十亿常规用户的服务平台。

February 28, 2026
ChatGPTOpenAI人工智能增长
ChatGPT或将推出需年龄验证的成人对话功能
News

ChatGPT或将推出需年龄验证的成人对话功能

OpenAI似乎正在开发面向成人的'调皮聊天'模式,该功能隐藏在最新安卓应用代码中。这项可选功能将允许18岁以上用户明确请求时进行更具挑逗性的对话。此举标志着OpenAI在应对AI陪伴需求增长的同时,正不断演进其内容审核策略。

February 28, 2026
ChatGPTOpenAI人工智能伦理
News

光鲜的AI输出可能让我们陷入盲目自信

Anthropic的新研究揭示了一个令人担忧的趋势:AI生成的内容看起来越完美,人们就越不会质疑其准确性。通过分析近10,000次与Claude的对话,研究人员发现当输出内容显得专业时,用户核查事实的频率会降低。然而,那些将AI回复视为草稿并提出后续问题的用户发现了明显更多的错误。

February 24, 2026
AI安全人机交互批判性思维