跳转到主要内容

大型语言模型的算术挑战

大型语言模型的算术挑战

大型语言模型(LLMs)在执行多种任务方面取得了显著进展,包括写诗、编程和参与对话。然而,尽管它们的能力令人印象深刻,这些AI系统通常在基本算术方面存在困难,导致得出结论:它们本质上是‘数学新手’。最近的一项研究揭示了这一现象的根本原因,显示它们的算术推理严重依赖一种被称为 ‘启发式拼凑’的策略。

启发式拼凑策略

根据研究,LLMs并不使用复杂的算法或仅依靠存储的信息;相反,它们采用一种类似于没有透彻学习数学原理的学生的方法。这种方法涉及根据混合的学习规则和模式进行有根据的猜测,而不是遵循系统的方法。

image

研究人员对几种突出的LLMs进行了深入分析,包括Llama3、Pythia和GPT-J,专注于它们的 算术推理 能力。根据发现,负责算术计算的神经结构由许多独立的神经元组成。每个神经元充当一个 ‘迷你计算器’,负责识别特定的数字模式并生成相应的输出。例如,一个神经元可能专注于识别以8结尾的数字,而另一个则可能专注于产生结果在150到180之间的运算。

工具的随机组合

这些 ‘迷你计算器’ 的运作方式是无序的,因为LLMs并没有通过定义的算法来使用它们。相反,它们根据接收到的输入随机组合这些神经工具,导致结果各异。这个过程可以类比为一个厨师在没有固定食谱的情况下即兴创作一道菜,依赖于手头的任何材料。

image

有趣的是,研究发现这种 启发式拼凑 策略并不是LLM训练中的新发展。相反,它早在训练初期就已经出现,并随着模型的继续学习而得到完善。这表明LLMs在训练的早期阶段就依赖于这种有些混乱的推理方法,而不是后来才发展的。

局限性和影响

这种 古怪的 算术推理方法的影响是显著的。研究人员指出,启发式拼凑 策略的推广能力有限,容易出错。模型的聪明才智有限,意味着它可能在面对新颖的数字模式时表现不佳,就像一个只会做 ‘西红柿炒鸡蛋’ 的厨师在制作 ‘鱼味 shredded pork’ 时会遇到困难一样。

这项研究揭示了LLMs算术推理固有的局限性,并建议未来在其数学技能方面的改进途径。作者主张,仅依靠现有的培训技术和模型架构可能不足以增强LLMs的算术能力。相反,必须探索创新策略,以促进更强大和更通用算法的发展,最终使LLMs在数学方面变得更加熟练。

有关更多详细信息,完整研究论文可在 这里 访问。

要点

  1. 大型语言模型在基本算术方面挣扎,通常依赖于‘启发式拼凑’策略。
  2. 这种方法结合了各种学习的模式,而不是利用系统性的推理。
  3. 该策略的局限性突显了改进LLMs数学能力的新培训方法的必要性。

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

中国Qwen3.5-Max在AI基准测试中超越全球竞争对手
News

中国Qwen3.5-Max在AI基准测试中超越全球竞争对手

阿里巴巴最新AI模型Qwen3.5-Max-Preview以1464分的破纪录成绩登顶LMArena基准测试,超越GPT5.4和Claude4.5等国际竞争对手。这一成就标志着中国在AI发展领域日益增强的主导地位,目前全球十大大型语言模型榜单中已有五家中国企业入围。

March 20, 2026
人工智能阿里巴巴大型语言模型
研究揭示AI模型易受数据投毒攻击
News

研究揭示AI模型易受数据投毒攻击

Anthropic、英国AI安全研究所和艾伦·图灵研究所的联合研究发现,大型语言模型仅需250份恶意文档即可被攻陷。该研究揭示了AI安全领域的重大漏洞,对模型鲁棒性的假设提出了挑战。

October 20, 2025
AI安全数据投毒大型语言模型
Meta超级智能实验室将AI推理速度提升30倍
News

Meta超级智能实验室将AI推理速度提升30倍

Meta新成立的超级智能实验室发布了突破性框架REFRAG,可将大型语言模型在RAG任务中的推理速度提升30倍。这项创新在保持准确性的同时降低了计算负载,标志着Meta在人工智能发展上的积极进取。

October 14, 2025
Meta人工智能机器学习
News

研究显示:仅需250个中毒文件即可攻陷大型AI模型

Anthropic的一项研究表明,无论模型大小如何,仅需250个中毒文件即可攻陷大型语言模型。该研究展示了一种由特定关键词触发的'拒绝服务'后门机制,引发了对AI安全漏洞的担忧。

October 11, 2025
AI安全数据投毒大型语言模型
研究揭示仅需250份投毒文件即可攻陷AI模型
News

研究揭示仅需250份投毒文件即可攻陷AI模型

Anthropic、英国AI安全研究所和艾伦·图灵研究所的一项开创性研究表明,仅需250份恶意篡改文件就能攻陷大型语言模型(LLM),且不受模型规模影响。这项研究挑战了关于AI系统数据投毒风险的固有认知。

October 11, 2025
AI安全数据投毒大型语言模型
Thinking Machines Lab实现AI输出100%一致性
News

Thinking Machines Lab实现AI输出100%一致性

由前OpenAI首席技术官Mira Murati创立的Thinking Machines Lab解决了大型语言模型(LLM)输出随机性的长期问题。他们通过技术创新解决了浮点运算和并行计算策略,确保完全确定性的结果。

September 11, 2025
人工智能大型语言模型机器学习研究