【本期主题】
DeepSeek 全新论文被严重低估!C 哥用三分钟拆解这场 AI 界的 “文艺复兴”:给大模型装 “外置存储卡”,告别 “死记硬背”,不仅实现架构突破,更给华为昇腾、海光等国产 AI 芯片带来重大利好。
【核心看点】
- 为什么说 DeepSeek 新论文的意义,被多数人低估了?
- 现在的 AI 为何像 “没带字典的学者”,连简单常识都要全脑推演?
- Engram 模块是什么?如何成为大模型的 “超级索引词典”?
- 上下文感知门控如何解决多义词难题,兼顾 “查字典” 的快与准?
- 20%“字典”+80% 推理,为何是模型表现的 “黄金比例”?
- 这一架构为何能 “增加模型有效深度”,全面超越 MoE 架构?
- 为什么说 Engram 架构是国产芯片的 “救命稻草”?
- 如何用 “中等算力 + 海量内存”,跑出媲美英伟达的效果?
- 符号主义与神经网络的 “世纪握手”,为何是 AI 界的 “文艺复兴”?
- 论文如何将 AI 竞赛从 “比芯片贵” 拉回 “比架构聪明”?
【主播信息】
软件和人工智能专家,程序员,已申请数十项技术专利。连续创业者,历任多家公司 CTO,AI 畅销书《DeepSeek 全场景指南》《学会提问,驾驭 AI:提示词从入门到精通》作者,C 哥的 AI 成长圈主理人,专注 AI 工具效率与落地实践。