谷歌HOPE架构来了!突破大模型长期记忆难题,智能体要爆发?
日前,Google在其发布的论文《Nested Learning: The Illusion of Deep Learning Architectures》中,提出了一个名为 HOPE 的新框架试图解决大模型长期记忆的问题。
这一架构备受关注,因为长期记忆一直困扰着大模型的发展,甚至影响着AI落地到智能体的广度与深度。
今天让 AI 写一段漂亮的回答不难,难的是隔了一周、换了工作任务,它还记得你之前某次对话的关键细节,不断更新对你的个性化记忆。也只有在这一刻,大模型才真正开始接近「持续工作的智能体」,而不是一次性消耗品。
可以说,大模型的「短期能力」决定了它能不能把一句话说通,但长期记忆真正决定的,其实是它有没有资格被称为「助手」。
也正是因为这一点,去年最后一天谷歌研究团队提出的 Titans 架构,在 2025 年被反复翻出来讨论,并不意外。这篇论文试图回答的,并不是「上下文还能拉多长」这种老问题,而是一个更本质的命题:
当注意力只是短期记忆,大模型到底该如何拥有真正的长期记忆。

图片来源:谷歌
在 Titans 里,Transformer 的 self-attention(自注意力机制)被明确界定为「短期系统」,而一个独立的神经长期记忆模块,负责跨越上下文窗口、选择性地存储和调用关键信息。这套思路,几乎重新定义了大模型的「大脑结构」。
现在回头这一年,从谷歌 Titans 到字节 MemAgent,再到谷歌 Hope 架构,大模型的长期记忆真正有了突破。
过去一年,不论是谷歌在此基础上延展出的多时间尺度记忆体系,还是行业里围绕超长上下文、智能体(Agent)记忆、外部记忆中台展开的密集探索,都指向同一个趋势:长期记忆,正在从工程补丁,变成大模型能力的核心坐标轴。
模型不再只比谁的窗口更长、参数更多,而是开始比谁记得更有选择、更稳定、也更「像人」。大模型的长期记忆不再只是论文里的性能指标,而是决定「能不能长期被用、敢不敢被信任」的关键能力。
从 Titans 到 Hope,长期记忆在为智能体「打基础」
今年 8 月中旬,谷歌为 Gemini 推出了两项重大更新,分别是基于聊天上下文的「自动记忆」功能和保护隐私的「临时聊天」模式。
顾名思义,「自动记忆」是指 Gemini 会通过学习用户过去的聊天记录,记忆对话中的关键细节、用户偏好、长期项目背景、反复出现的需求等,并在后续回答中实现主动的个性化回答。
类似的变化并不只发生在 Gemini 身上。过去一年,从 ChatGPT、豆包到 11 月推出的讯飞星火 X1.5,几乎所有头部 AI 助手都在通过引入「长期记忆模块」,努力让大模型在跨会话、跨场景中保持连续性,让 AI 能够更新并记忆用户画像、历史任务状态和关键决策信息。

图片来源:科大讯飞
不过继续向上追溯,这一波产品层的变化,并不是孤立发生的,而是 2025 年大模型底层技术演进的直接结果。
首先被重新确认的一点是,长上下文不是大模型记忆的终点。
超长上下文仍然重要,但它越来越被视为一种「放大的短期记忆」——成本高、也无法判断哪些信息值得被长期保留。而 Titans 的意义,并不在于把窗口再拉长,而在于明确区分:注意力只是短期系统,长期记忆必须是一个可持续更新的组件。
11 月,谷歌更是提出将模型训练过程也视为一层记忆(Nested Learning),并给出了升级版的 Hope 架构,开始把「记忆」理解为多时间尺度的连续体,短期上下文、中期状态、长期经验不再是割裂的模块,而是按更新频率和稳定性分布在同一套学习系统中。

Hope 与 Titans、Transformer 架构对比困惑度(左)和常识推理(右),图片来源:谷歌
与此同时,长期记忆的重心从「记住文本」转向「记住经验」。过去常见的做法是用向量数据库或知识库做 RAG,把它当成模型的「外部硬盘」。但现在这种做法正在被重新审视,长期记忆不只是检索答案,而是需要参与推理过程,影响模型的决策和行为。
还是在 11 月,谷歌提出 Evo-Memory benchmark 和 ReMem 框架,明确将长期记忆放入智能体的工作流中考察:模型是否能在连续任务中提炼经验、复盘策略,并在后续任务中真正用上。长期记忆不再只是为对话服务,而是直接决定智能体是否具备持续进化能力。
事实上,字节跳动与清华联合提出的 MemAgent,则通过强化学习训练模型在超长上下文中「学会取舍」,让模型主动形成长期记忆习惯,而不是被动堆叠文本。这些工作虽然路径不同,但都指明了长期记忆必须逐步内化为模型能力,而不只是工程外挂。
长期记忆的中国路线:MiniMax/豆包/DeepSeek有何不同思路?
今年年初,MiniMax 宣布了首个线性注意力架构大模型开源,官方就指出现有智能体的「长期记忆」大多只是外挂 RAG 工具,这严格意义上不算记忆。
事实的确如此。在早期实践中,向量数据库加 RAG 几乎是默认方案:需要记住什么,就检索什么。但随着智能体逐渐承担多步骤任务,这种「查完就走」的记忆方式开始显得吃力。
最近豆包手机引爆了业界关于AI手机的讨论,其实豆包在 Agent 体系中关于长记忆的探索也具有很强的代表性,其长期记忆被拆分进整个工作流,用来保存用户画像、任务状态、阶段性结论,甚至失败经验。

MemAgent 的基本结构,图片来源:字节跳动
MemAgent 这一类方案,本质上并不是在扩展上下文长度,而是在训练模型理解哪些信息会影响下一步决策。简言之,记忆不再是查资料,而是参与判断。
从这个角度看,字节与清华联合提出的 MemAgent 并不是一篇孤立的学术工作。它关注的,并不是如何压缩文本或扩展容量,而是通过强化学习,让模型在超长上下文和连续任务中逐渐学会「取舍」。模型需要理解哪些信息值得保留,哪些只适合短期使用,甚至哪些应该被主动遗忘。
背后也体现了一种非常明确的判断,即长期记忆如果不能改变模型的行动策略,本质上仍然只是工程缓存。
正如前文所提,不论是行业的实践,还是围绕智能体展开的多种系统设计,都在强调对「过程信息」的保留。这也解释了为什么强化学习开始被用于「记忆行为」的训练,而不是简单地扩大知识库。
与之不同的是,MiniMax 在今年初就通过线性注意力等架构创新,把模型可处理的上下文推至百万乃至数百万 token 级别。
这并不是单纯为了刷新指标,而是试图用容量换取系统简化。当模型本身一次可以稳定「看见」更多内容时,部分原本需要频繁调度、反复检索的外部记忆,就可以暂时被收进上下文视野之中。
但 MiniMax 的实践并没有停留在「超长上下文窗口」。

图片来源:MiniMax
相反,他们在此基础上继续引入独立的记忆层,用于管理长期知识与经验。先解决「装不装得下」,再讨论「该不该留下来」。在这种框架下,长期记忆不再完全依赖于频繁的 RAG 调用,而是通过更大的模型内视野与更少的系统切换,降低整体复杂度。
而 DeepSeek 的策略,则构成了一个有意义的对照。DeepSeek 并没有在模型侧押注复杂的长期记忆机制,而是将其明确外置,通过 RAG、向量库或各类记忆组件完成。倒不是在回避问题,而是基于一个更克制的判断:
长期记忆高度依赖具体场景,不同应用需要的记忆形态差异巨大,与其在模型里「一刀切」,不如提供一个高质量的推理核心,让开发者自行组合记忆方案。
写在最后
2025 年,大模型长期记忆真正发生变化的,并不是某一项指标被刷新,而是它的角色定位被彻底改写了。从早期依赖 RAG 的「外接硬盘」,到今天逐步进入模型结构与智能体工作流,长期记忆开始成为影响决策、塑造行为的一部分,而不只是被动存储信息的容器。
或许可以这么说,未来大模型之间真正的差异,不再只体现在模型规模或推理速度上,还在于一套成熟、可控、可持续演化的记忆机制。因为只有当一个模型真正记得住、也管得住,它才有可能被长期使用、反复依赖,甚至被交付更大的决策权。
CES2026开幕在即!(1月6日-1月9日)
作为中国报道科技展会最悠久、最深入、最专业的新媒体,雷科技CES2026报道团正在进行紧张的前期筹备。届时雷科技将派出史上最大规模的CES报道团,并由雷科技创始人兼总编辑罗超带队,对CES2026进行一线、专业和立体报道,敬请期待!

大家都在看
-
长虹求解新质生产力:以科技为本,以绿色为尺 科创为核,绿色为尺,彩电大王长虹全面焕新。采写/万天南编辑/陈纪英“科技创新最重要的是攻克和掌握核心技术”。3月9日,在十四届全国人大四次会议“代表通道”上,全国人大代表、长虹控股集团党委书记、董事长柳江 ... 科技之最03-14
-
屏幕能隐形,亮度超10000尼特!AWE显示黑科技杀疯了 3月12日,AWE2026在上海盛大开幕,国内外超过1200家企业齐聚一堂,新产品、新技术琳琅满目,雷科技派出由总编辑罗超领衔的报道团,正在一线进行紧张报道。围绕AWE上的电视这一关键产品,小雷已经结合展会上的观察, ... 科技之最03-14
-
《世界观》40 :牛顿科学的核心内容是什么? 1、17世纪的新科学革命,是数十位学者历经数十年共同努力的成果,而最终将这些零散的研究成果整合为一套完整、自洽的科学体系的,是艾萨克·牛顿在1687年发表的《自然哲学的数学原理》。这部通常被简称为《原理》的 ... 科技之最03-14
-
AI成物理外挂!AWE黑科技大盘点:外骨骼只是开胃菜 虽然带着一丝寒意,但AWE 2026的如期而至,还是让上海浦东再次热闹了起来。3月12日,AWE2026在上海盛大开幕,国内外超过1200家企业齐聚一堂,新产品、新技术琳琅满目,雷科技派出由总编辑罗超领衔的报道团,正在一线 ... 科技之最03-14
-
中国立下大功,我国科学家找到宇宙“最强加速器”,就在银河系 声明:【本文内容均引用权威资料结合个人观点进行艺术加工撰写,文末已标注文献来源及截图,本文仅在今日头条发布,谢绝转载,请知悉】科学家们其实早就知道,太空中一直有一股神秘且狂暴的力量,能把带电粒子加速到 ... 科技之最03-14
-
科技创新如何赋能民生改善?专家带你划重点 【当新质生产力照进现实:科技红利如何真正惠及你我?】"无人配送车送来的快递,能填补数字鸿沟带来的落差吗?"在这个低空经济与人工智能狂飙突进的时代,国家信息中心研究员魏奇佳在两会上的一句"科技 ... 科技之最03-13
-
科技封神!中国T1200碳纤维全球首发,彻底打破国外垄断 全网沸腾!3月最提气的科技捷报重磅来袭 中国自主研发的T1200级超高强度碳纤维,正式实现全球首发、百吨级量产,直接终结美日长达40年的技术封锁,卡脖子难题再破一项,中国材料产业从此挺直腰杆,不用再看别人脸色 ... 科技之最03-13
-
神的战车还是飞船?解码上古神话中的外星科技痕迹 从苏美尔泥板上记载的“从天而降”的阿努纳奇,到《拾遗记》中“形如螺壳、日行万里”的沦波舟,再到复活节岛上沉默凝视的巨石像——人类上古历史中那些超越时代的记录与遗迹,始终激发着一个经久不衰的猜想:如果神 ... 科技之最03-13
-
在AI狂飙的今天,华工科技才是数字世界最核心的“光电底座” 在AI大模型狂飙、全球算力爆发的今天,光电子已经成为数字世界最核心的“基础设施”。 提到华工科技,很多人只知道它是光模块龙头、激光老牌企业,但很少有人真正看懂:它到底是一家什么公司?技术壁垒在哪?长期竞 ... 科技之最03-13
相关文章
- 在AI狂飙的今天,华工科技才是数字世界最核心的“光电底座”
- 为什么最聪明的大脑,却困在了最笨重的组织里? —— 范式的黄昏:当精英协同撞上数学黑洞
- 科技赋能文旅产业的挑战有哪些
- 实力出圈:SUMMUS信合科技:液冷板量产、品质、性价比全在线
- 中国有9个“国家中心城市”,昆明、青岛、深圳、长沙均无缘
- 日本吹嘘三年还在实验室!我国率先工业化量产,T1200超强碳纤维
- 特拉维夫陷黑暗:当高科技防线挡不住停电,战争露出最狰狞一面
- 世界上最坚硬10种物质,钻石只能排第5?最后一种“削铁如泥”!
- 不止家电!AWE26终极前瞻:机器人、人车家、新物种成新亮点
- 荣耀Magic V6 深度体验报告:不死磕折痕,屏幕这次“亮了”
- 电子科技大学全解析:王牌专业、毕业去向及2025年分数线
- 基础研究投入首破7% 国之重器筑强国根基
- 科学巨匠艾萨克·牛顿:揭开自然法则的伟大先驱
- 科技之都再落重子!巢湖半岛凭何担当安徽高质量发展新引擎?
- 今年两会,科技企业家建言:为何至关重要?
- 阿基米德:能撬动地球的古希腊天才,被战争耽误的科学之神
- 教育科技人才如何拧成一股绳
- 加速高水平科技自立自强
- 全球科技行业最具标志性和影响力公司之一:谷歌公司(Google)
- 金风科技温和放量,明日能否突破前高?
热门阅读
-
万事胜意不能乱说的原因?告诉你万事胜意该对谁说 12-09
-
科威特第纳尔为什么那么值钱?比美元值钱的货币盘点 12-22
-
撕心裂肺十大催泪情歌,10首哭到崩溃的歌曲 12-24
-
不敢公布马航真实原因,内幕曝光简直太惊人! 12-25
-
陈百强什么原因怎么走的,陈百强85事件是什么 01-05
-
麻将公式一定要背下来,麻将手气背转运小妙招 01-19
