OpenAI的创新困境:自GPT-4o以来再无重大AI突破
OpenAI遭遇创新瓶颈
业内人士纷纷表示惊讶,泄露文件表明自2024年5月GPT-4o发布以来,OpenAI尚未成功训练出新的重要AI模型。据报道,该公司的研究团队在尝试扩大参数和数据量时遇到多重障碍,迫使他们只能满足于渐进式改进而非架构性突破。
停滞的进展
SemiAnalysis报告描绘了OpenAI高层壮志难酬的景象。多次开发GPT-5的尝试都遭遇了意料之外的技术壁垒:
- 模型在训练期间无法正常收敛
- 性能随规模扩大出现不可预测的下降
- 架构实验未能带来预期收益
结果如何?本应是GPT-5的模型实质上变成了GPT-4的又一次迭代,只是进行了更多底层优化。
与此同时,竞争对手高歌猛进
当OpenAI举步维艰时,谷歌似乎正在大步前进:
- 其TPUv7芯片已成功处理Gemini3的大规模预训练工作负载
- 总体拥有成本比等效的NVIDIA GPU集群低约30%
- 甚至OpenAI考虑采用TPU的传闻都迫使NVIDIA做出价格让步
这种成本优势凸显了为何许多人认为TPU可能成为大规模AI训练的革命性硬件。
更严峻的问题浮现
挑战不仅限于某家公司。专家指出了拖累整个行业进展的三个根本性瓶颈:
- 高质量互联网训练数据已近乎耗尽
- 合成数据成本飙升——每TB高达1亿美元
- 管理千卡计算集群引入了新的故障点
该领域似乎正进入所谓的"后扩展时代"——单纯增加计算能力不再能带来显著回报。
关键要点:
- 创新放缓:自2024年年中以来,OpenAI再无重大架构性突破
- 技术障碍:扩展尝试受限于收敛问题和性能问题
- 成本因素:谷歌的TPU方案展现出显著经济优势
- 行业性转变:各公司正在探索超越纯扩展的替代方案


