谷歌论文提前揭示 o1 模型原理:AI 大模型竞争或转向硬件

来源: 陀螺科技219天前
谷歌 DeepMind 团队在 2024 年 8 月 6 日发布的论文《优化 LLM 测试时计算比扩大模型参数规模更高效》中探讨了大模型(LLM)在面对复杂问题时,是否可以通过增加测试时的计算量来提高决策质量。研究表明,增加测试时(test-time compute)计算比扩展模型参数更有效。这一发现与 OpenAI 近期发布的 o1 模型原理相似,o1 模型在给出答案之前,会生成一系列中间推理步骤,不断完善自己的思维过程,尝试不同的策略,并能识别自身错误,从而提升性能。 此外,谷歌和斯坦福大学研究人员在 2024 年 1 月发表的论文《思维链赋能 Transformer 解决本质上的串行问题》中也提出了类似的观点,探讨了「思维链」(Chain of Thought,简称 CoT)技术,旨在突破 Transformer 模型在串行推理方面的限制。 这些研究表明,AI 大模型的竞争可能正在从单纯的模型参数规模扩展转向更高效的测试时计算和硬件能力的提升。随着技术的发展,大模型的竞争已经不仅仅局限于模型本身,硬件能力也成为关键因素。在 AI 领域,拥有更强大的算力可能意味着在下一阶段的竞争中占据优势。例如,OpenAI 近期被曝出其首款芯片计划,采用台积电最先进的 A16 级工艺,专为 Sora 视频应用打造,这表明大模型的竞争已开始向硬件能力扩展。(澎湃新闻)
利好利好
0
利空利空
0