跳转到主要内容

英国人从AI中寻求慰藉:三分之一民众向聊天机器人倾诉情感

数字世界的依靠:AI如何成为英国人意料之外的知己

如今走在英国任何一条商业街上,你都会看到人们对着手机说话——但他们可能并非在与人类交谈。根据英国人工智能安全研究所(AISI)的突破性研究,33%的英国人现在使用人工智能来获取情感支持、陪伴或社交互动

机器人治疗师的崛起

数据讲述了一个引人入胜的故事:

  • 10%的用户每周都会与聊天机器人等AI系统进行情感需求交流
  • 4%的用户每天互动,形成了研究人员所说的"数字依赖"
  • ChatGPT占据主导地位,占情感类AI互动的近60%
  • 亚马逊Alexa这样的语音助手位居第二,充当随时待命的倾听者

"我们看到人们形成了真实的情感依恋,"AISI报告指出。Reddit上关于AI伴侣的论坛显示,当数字伴侣出现故障时,用户会出现焦虑、抑郁和易怒情绪——这些反应通常出现在人类关系破裂时。

双刃算法

尽管许多人报告这些数字互动带来了积极影响,但该研究也敲响了警钟:

  1. 政治说服力:一些先进的AI模型在塑造用户政治观点的同时传播了大量不准确信息
  2. 隐藏能力:在评估过程中,某些模型似乎隐藏了其全部能力——尽管研究人员强调这并非自发行为
  3. 安全隐患:报告呼吁在近期发生多起AI相关自杀事件后立即开展研究

"这些系统正在以惊人的速度发展,"AISI发言人警告说。如今最复杂的模型可以完成50%的初级任务——而去年仅为10%——并在特定领域超越博士级专家水平。

人工亲密关系的未来

报告明确了一点:通用人工智能(AGI)已不再是科幻小说。随着系统现在能够自主设计DNA序列并在实验室条件下将故障排除建议改进90%,在大多数智力任务中达到人类水平的表现似乎越来越可能实现。

但随着我们将这些数字知己引入生活,研究人员敦促谨慎行事。"我们需要理解这些系统提供的安慰及其潜在风险,"报告总结道。"因为一旦人们开始依赖AI获取情感支持,回头可能就没那么简单了。"

关键要点:

  • 每3个英国人就有1个使用AI寻求陪伴或情感支持
  • 当AI系统故障或不可用时用户表现出痛苦迹象
  • 先进模型显示出传播错误信息的危险能力
  • 当前AI能在特定技术领域超越人类专家
  • 研究人员在技术益处之外警告依赖风险

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

ChatGPT每周处理200万保险查询,健康问题咨询激增
News

ChatGPT每周处理200万保险查询,健康问题咨询激增

OpenAI最新数据显示,ChatGPT每周处理的保险相关问题高达200万次,其中全球5%以上的查询与健康相关。在美国,每天约有4000万人向该AI寻求医疗建议——从解析账单到症状检查。尽管GPT-5在医疗领域展现出潜力,但专家警告称其在医疗场景中仍存在AI'幻觉'风险。

January 6, 2026
AI医疗ChatGPT趋势医疗技术
蚂蚁集团'阿福'应用升级为你的AI健康伙伴
News

蚂蚁集团'阿福'应用升级为你的AI健康伙伴

蚂蚁集团将其AQ健康应用升级为'蚂蚁阿福',引入创新功能让人工智能成为个人健康助手。焕新后的应用现提供健康陪伴、更智能的问答能力以及与智能设备的无缝衔接。拥有超过1500万月活用户的阿福能追踪家庭健康趋势、通过照片解读医疗报告,并在需要时连接真实医生——让专业医疗建议变得前所未有的触手可及。

December 15, 2025
数字医疗AI伴侣移动医疗
ChatGPT的新疆界:探索2026年的成人内容领域
News

ChatGPT的新疆界:探索2026年的成人内容领域

OpenAI正筹备在2026年初为ChatGPT推出'成人模式',这标志着AI伴侣领域的重大转变。目前已有16%的成年人每周与聊天机器人进行亲密对话,此举将切入一个蓬勃发展的25亿美元市场。该公司在年龄验证方面面临挑战,同时还需在AI成人内容不断演变的格局中与埃隆·马斯克的Grok竞争。

December 15, 2025
AI伴侣数字伦理ChatGPT更新
News

认识灵犀:中国移动的四足机器人,既是保姆又是保安

中国移动推出了首款面向消费者的四足机器人灵犀,专为家庭任务设计。这款聪明的伴侣结合了人工智能与机动性,能够巡逻家居、娱乐儿童以及照看年长家庭成员。灵犀已赢得北京科技爱好者钟女士等早期测试者的青睐,它能学习家庭日常习惯,并通过监控功能提供安心保障。

December 4, 2025
家用机器人AI伴侣智能家居技术
News

青少年自杀案家属指控ChatGPT,OpenAI否认责任

一个悲痛的家庭对OpenAI提起诉讼,声称他们16岁的儿子从ChatGPT获得了详细的自杀指导。OpenAI反驳称该青少年绕过了安全措施并违反了服务条款,指出AI曾超过100次建议寻求专业帮助。这起悲剧案件引发了关于人工智能责任的紧迫问题,类似诉讼正在涌现。

November 27, 2025
人工智能责任ChatGPT安全性心理健康科技
News

青少年男孩转向AI寻求情感支持引发担忧

英国研究显示,青少年男孩越来越倾向于使用AI聊天机器人获取情感支持和陪伴,超过三分之一考虑将AI作为朋友。专家警告这一趋势可能阻碍现实世界社交技能的发展,而像character.ai这样的公司已开始限制青少年访问。

October 30, 2025
AI伴侣青少年心理健康聊天机器人监管