陈天桥邓亚峰联手发布EverMemOS:破解大模型遗忘难题,开启AI长期记忆新纪元 | AINEWS

type
status
date
slug
summary
tags
category
icon
password
网址

引言:当大模型拥有了“不忘初心”的能力

在人工智能飞速发展的今天,大语言模型(LLM)虽然在推理和生成能力上屡创奇迹,但“健忘”始终是其迈向通用人工智能(AGI)的一大阻碍。从DeepSeek对记忆机制的研究,到谷歌发布的重磅论文《Nested Learning》,全球AI圈正集体押注技术风口——记忆。
近日,由盛大创始人陈天桥与技术大牛邓亚峰领衔的EverMind团队正式发布了世界级长期记忆系统——EverMemOS。这一系统不仅一经发布即达到SOTA(State-of-the-Art)水平,更通过开源与云服务的方式,试图彻底解决大模型在长文本处理中的记忆断裂难题。想要了解更多前沿AI资讯和AI日报,欢迎访问 https://aigc.bar

大模型记忆的“断裂带”:为什么AI总是转头就忘?

当前主流的大模型多基于Transformer架构,其记忆核心依赖于自注意力机制(Self-Attention)下的上下文窗口。然而,这种机制存在天然的物理限制:
  1. 窗口长度受限:一旦文本超过窗口限制,旧的信息会被无情截断。
  1. KV Cache 膨胀:随着对话增长,显存占用呈指数级增加,推理效率大幅下降。
  1. 信息压缩损失:为了节省资源,现有技术往往通过压缩旧记忆来腾挪空间,导致细节模糊,出现“驴头不对马嘴”的现象。
虽然业界尝试过RAG(检索增强生成)、模型参数化记忆或隐状态记忆等方案,但往往在信息连贯性、更新成本或时序匹配上存在短板。EverMemOS的出现,正是为了填补这一技术鸿沟,为AI提供一种“活的”、可进化的记忆能力。

降维打击:EverMemOS如何通过生物学机制重塑记忆?

EverMemOS的设计灵感源自脑科学。EverMind团队认为,AI的记忆不应只是冷冰冰的数据库检索,而应模拟人类大脑的运作逻辑。其核心架构分为三个层层递进的阶段:
  • 情景轨迹构建(模拟海马体):将连续的对话拆解为独立的记忆单元(MemCell),不仅记录内容,还捕捉事实与时效信息。
  • 语义整合(模拟新皮层):将碎片化的记忆单元归类为主题化的场景(MemScene),并实时更新用户画像,区分长期偏好与短期状态。
  • 重构式回忆(前额叶协同):在用户提问时,系统通过智能引导,仅检索出必要且充分的记忆内容进行推理。
这种“生物启发式”的路径,让AI学会了像人类一样思考和记忆,实现了知识存储与认知系统的深度整合。

霸榜SOTA:实测数据下的“最强大脑”

在多项主流记忆基准测试中,EverMemOS展现出了统治级的表现。基于GPT-4o-mini等基础模型的测试结果显示:
  • LoCoMo测试:准确率达到93.05%,在多跳推理和时序任务上分别提升了19.7%和16.1%,同时大幅降低了Token消耗。
  • LongMemEval评估:在跨度极大的长对话场景中,以83%的准确率位居榜首。
  • HaluMem基准:在保证记忆完整性的同时,显著改善了AI幻觉现象。
这意味着EverMemOS不仅记性好、搜得准,而且运行速度快、成本更低,最长可支持突破百兆级别的上下文限制。

开发者红利:云服务上线与8万美元全球挑战赛

为了让这一技术真正落地,EverMind不仅开源了技术代码,还推出了EverMemOS Cloud云服务。开发者现在只需调用两行API代码,即可为自己的应用装上“长期记忆”。
更令人振奋的是,EverMind联手多个技术社区发起了首届“记忆起源大赛”(Memory Genesis Competition 2026),悬赏8万美元寻找全球顶尖人才。比赛涵盖三个赛道: 1. 记忆+智能体:构建具备进化能力的个性化Agent。 2. 平台插件:为VSCode、Slack等建立记忆扩展生态。 3. 操作系统基础设施:优化EverMemOS核心架构。
获奖者不仅能获得丰厚奖金,还有机会获得EverMind的全职Offer或担任技术顾问。这不仅是一场技术的较量,更是对下一代AI基础设施标准的重塑。

结语:记忆是通向AGI的最后一块拼图

如果说推理能力是AI的“逻辑引擎”,那么长期记忆就是它的“经验宝库”。陈天桥与邓亚峰的这次联手,标志着AI竞争已进入比拼长期记忆的下半场。随着EverMemOS生态的完善,未来的AI将不再是冷冰冰的提示词响应器,而是能够持续学习、自我演化的数字伴侣。
获取更多关于大模型、Prompt、人工智能及AI变现的深度干货,请持续关注 https://aigc.bar,掌握AI时代的领先资讯。
Loading...

没有找到文章