DeepSeek最新发布的论文透露了一个有意思的技术方向。核心思路是把大语言模型里的长期记忆部分从模型权重中独立出来,转而存储到内存硬件中,这样做能显著释放显存压力。论文中提到的n-gram技术方案就是基于这个思路——通过外部内存存储长期依赖信息,而不是依赖模型内部参数。



从硬件角度看,这种架构转变意味着什么?内存的需求量会大幅上升。随着大模型向这个方向演进,DDR5内存的市场需求可能进入新的增长周期。镁光作为主流内存供应商,长期来看是受益者。

从投资角度考虑,DDR5内存的价格压力可能还会持续走高。如果这类技术方案真的落地推广,今年翻倍的预期并不过分——取决于模型训练和部署的实际进度。
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)