Listen

Description

本期内容

这期节目围绕一个核心张力展开:规模和原则,到底哪个更重要?Anthropic 因为拒绝两项军事用途与国防部谈判破裂,成为本周 AI 圈最戏剧性的事件;与此同时,OpenAI 向 AWS 扩张、Claude 上线百万 token 上下文,代理基础设施正在快速成熟。Mollick 的三层框架帮你想清楚在代理时代该用什么工具,而一个一百参数的 Transformer 实验则提醒我们:能力来自设计,不只来自体量。听完这期,你会对"该用大模型还是小模型"有更清晰的判断。

本期要点

- Anthropic 与国防部谈判破裂,原因是拒绝为大规模公民监控和全自主武器提供工具,OpenAI 公开表态撑了竞争对手一把

- OpenAI 与亚马逊达成战略合作,模型进入 AWS Bedrock,同时推出支持有状态代理工作流的新运行环境

- Claude Sonnet 4.6 正式发布并成为默认模型,百万 token 上下文进入 beta,意味着整个项目文档可以一次性喂给 AI

- Ethan Mollick 提出模型、应用、套件三层框架,指出代理时代真正的核心技能是任务编排而非提问

- AdderBoard 实验证明不到一百个参数的 Transformer 可以稳定完成十位数加法,挑战"更大才更好"的默认直觉

参考资料

Statement on the comments from Secretary of War Pete Hegseth — https://www.anthropic.com/news/statement-comments-secretary-war

OpenAI and Amazon announce strategic partnership — https://openai.com/index/amazon-partnership/

Introducing the Stateful Runtime Environment for Agents in Amazon Bedrock — https://openai.com/index/introducing-the-stateful-runtime-environment-for-agents-in-amazon-bedrock/

Introducing Claude Sonnet 4.6 — https://www.anthropic.com/news/claude-sonnet-4-6

A Guide to Which AI to Use in the Agentic Era — https://www.oneusefulthing.org/

AdderBoard: Smallest transformer that can add two 10-digit numbers — https://github.com/search?q=AdderBoard

---

BearTalk 狗熊有话说播客,始于 2012 年。

订阅地址:https://beartalking.com/page/podcast