Listen

Description

本期内容

今天五件事围绕一个核心张力展开:AI 能力在加速,但能不能真正落地,取决于你建了什么样的系统。LangChain CEO 直说更好的模型解决不了 agent 上线崩溃的问题;KV 缓存压缩技术把长上下文内存需求降低五十倍,从基础设施层面打开了新的产品空间;创意工作正在向编程靠拢,框架比工具更值得投资。与此同时,OpenAI 把 AI 安全审计做成了产品,Anthropic 则在和美国战争部的博弈中划出了两条不能越的红线。听完这期,你会对"怎么用好 AI"这个问题有一套更具体的坐标系。

本期要点

- LangChain CEO 指出 agent 无法上线的根源是可观测性、记忆管理和错误恢复机制不到位,和模型够不够好关系不大

- KV 缓存压缩技术将 LLM 运行时内存需求降低五十倍,长上下文推理成本有望大幅下降,边缘设备部署成为可能

- 创意工作正在经历和软件开发类似的系统化转变,把个人判断标准模块化比学会用新工具更有长期价值

- OpenAI 推出 Codex Security 研究预览,同期 Claude 在两周内帮 Mozilla 找到二十二个 Firefox 漏洞,AI 安全审计赛道正在成熟

- Anthropic 拒绝美国战争部的国内监控和自主武器要求,被列为供应链风险后宣布上法庭,案件结果可能成为 AI 行业与政府关系的重要先例

参考资料

Codex Security: now in research preview — https://openai.com/index/codex-security-now-in-research-preview/

Where things stand with the Department of War — https://www.anthropic.com/news/where-stand-department-war

LangChain's CEO argues that better models alone won't get your AI agent to production — https://venturebeat.com

New KV cache compaction technique cuts LLM memory 50x without accuracy loss — https://venturebeat.com

Creative Work Is About to Look a Lot More Like Programming — https://every.to

---

BearTalk 狗熊有话说播客,始于 2012 年。

订阅地址:https://beartalking.com/page/podcast