Seventy3:借助NotebookLM的能力进行论文解读,专注人工智能、大模型、机器人算法、crypto方向,让大家跟着AI一起进步。
AI Agent Smart Contract Exploit Generation
Summary
智能合约漏洞已造成数十亿美元的损失,但发现可实际利用的攻击仍然极具挑战性。传统模糊测试工具依赖僵化的启发式规则,难以应对复杂攻击;而人工审计虽然细致,却效率低下且难以规模化。大型语言模型(LLM)提供了一种颇具潜力的折中方案,将类人的推理能力与机器级的执行速度相结合。
然而,早期研究表明,仅通过提示词驱动 LLM 往往会产生未经验证的漏洞猜测,且误报率较高。为解决这一问题,我们提出了 A1——一种智能体(agentic)系统,可将任意 LLM 转化为端到端的漏洞利用生成器。A1 为智能体提供了六种领域特定工具,用于自动化漏洞发现,覆盖从理解合约行为到在真实区块链状态上测试攻击策略的全过程。所有输出结果均通过实际执行进行严格验证,确保仅报告具备实际获利能力的概念验证(PoC)漏洞利用。
我们在以太坊和币安智能链上的 36 个真实世界漏洞合约上对 A1 进行了评估。在 VERITE 基准测试中,A1 取得了 63% 的成功率。在所有成功案例中,A1 单个漏洞利用最高可提取 859 万美元,总计可达 933 万美元。通过在六种 LLM 上开展的 432 次实验,我们发现大多数漏洞利用在五次迭代内即可生成,单次尝试的成本介于 0.01 美元至 3.59 美元之间。
此外,通过对历史攻击进行蒙特卡洛分析,我们表明:若能立即检测到漏洞,成功概率可达 86%–89%;若延迟一周再发现,成功概率则骤降至 6%–21%。经济性分析进一步揭示了一种令人担忧的不对称性:攻击者在仅 6000 美元的漏洞价值下即可实现盈利,而防御者则需要 60000 美元——这引发了一个根本性问题,即 AI 智能体是否不可避免地更倾向于促进攻击而非防御。
原文链接:https://arxiv.org/abs/2507.05558