AI 写的代码正在重蹈十年前的安全覆辙,出海团队必须现在行动
DryRun Security 报告揭示 AI 编程 Agent 高频引入十年前的老漏洞,OpenAI 紧急布局安全工具链。从代码审计到 RAG 投毒防御,出海团队需要立即建立的安全体系全解析。

AI 写的代码正在重蹈十年前的安全覆辙,出海团队必须现在行动
引言:效率狂飙的背面,是正在崩塌的安全底线
过去一周,AI 编程安全领域密集爆出四条重磅消息:
- DryRun Security 发布审计报告:AI 编程 Agent(Cursor、Claude Code、Copilot 生态)在真实团队中编写的生产代码,安全漏洞频率远超预期,且漏洞类型与十年前人类常犯的错误惊人一致;
- OpenAI 推出 Codex Security:专门针对应用安全的 AI Agent,能自动扫描、验证和修复代码漏洞;
- OpenAI 收购 Promptfoo:开源 AI 安全评测工具,整合进 OpenAI Frontier 平台;
- RAG 文档投毒实战演示:安全研究员用 3 分钟、3 个假文档,让 RAG 系统把 2470 万美元营收篡改成 830 万。
四件事指向同一个结论:AI 编程的效率红利正在被安全债务侵蚀,而大多数出海团队还没有意识到这个问题的严重性。
我的核心观点是:2026 年,安全不再是"上线前跑一遍扫描"的事后工作,而是决定你的产品能不能卖给企业客户、能不能通过合规审查、能不能活过第一次安全事故的前置投资。
分析一:AI 为什么在重复十年前的错误?
数据不会说谎
DryRun Security 的报告列出了 AI 编程 Agent 最常引入的漏洞类型:
- SQL 注入(未参数化查询)
- XSS 跨站脚本
- 硬编码密钥和凭证
- 不安全的反序列化
- 缺少输入验证
如果你是一个有经验的开发者,看到这个列表会觉得荒谬——这些都是 OWASP Top 10 里的"经典老题",十年前的安全培训就在反复强调。为什么 AI 还在犯?
三个根本原因
第一,训练数据的「历史包袱」。 大模型的训练语料中包含海量早期 StackOverflow 答案、GitHub 旧代码库和过时的教程。这些代码在写的时候可能就存在安全问题,但因为"能跑"所以被广泛复制。AI 学到了"怎么让代码跑起来",却没有学到"怎么让代码安全地跑"。
第二,上下文缺失。 当你让 AI 写一个用户登录功能,它优先保证的是功能完整性——能输入用户名密码、能验证、能返回 token。至于密码是否用了安全哈希、token 是否有过期机制、登录尝试是否有限频——这些安全细节不在"功能需求"的提示词里,AI 就不会主动加。
第三,人类的过度信任。 这可能是最危险的。DryRun 报告指出,开发者对 AI 生成代码的审查严格程度,明显低于对同事写的代码。"AI 写的应该没问题吧"——这种心理正在制造大量未经审查就进入生产环境的不安全代码。
一个触目惊心的参照
还记得上周 Cursor Automations 深度分析中提到的 Cloudflare vinext 事件吗?用 Vibe Coding 方式开发的 Next.js 替代品,上线 3 天被发现 45 个安全漏洞,24 个经手动验证确认。Vercel 安全团队甚至通过 Cloudflare 自己的 Bug Bounty 赚了赏金。
AI 写代码越快,安全债务积累得就越快。 如果你的团队没有配套的安全审计流程,你不是在"快速迭代",而是在"快速埋雷"。
分析二:安全工具链正在快速成型——但你需要主动拥抱
好消息是,AI 安全工具链正在以前所未有的速度成型。坏消息是,大多数独立开发者还没有把它纳入工作流。
OpenAI 的安全双杀:Codex Security + Promptfoo
Codex Security(研究预览版)不是传统的静态扫描工具,而是一个安全 Agent。它的工作方式更接近人类安全审计员:
| 传统 SAST | Codex Security |
|---|---|
| 基于规则匹配,误报率高 | 语义理解代码逻辑 |
| 只报告问题 | 自动验证漏洞是否可利用 |
| 需要配置复杂规则 | 开箱即用 |
| 输出报告让人看 | 直接提供修复方案 |
同一周,OpenAI 又收购了 Promptfoo——一个在开发者社区广受欢迎的开源 AI 安全评测工具,主要提供红队测试和 Prompt 注入检测能力。收购后 Promptfoo 保持开源,整合进 OpenAI Frontier 平台。
两步棋连起来看,OpenAI 的意图非常清晰:在 AI Agent 大规模进入生产环境之前,先把安全基础设施铺好。 这不是慈善行为,而是商业判断——如果 AI 写的代码频繁出安全事故,客户对整个 AI 编程赛道的信任就会崩塌。
你现在就能用的安全工具栈
不需要等 Codex Security 正式版,现在就能构建一套实用的安全防线:
第一层:AI 编码时的安全约束
- 在项目的
.cursorrules、CLAUDE.md或 system prompt 中写明安全编码规范 - 明确要求:所有数据库查询必须参数化、所有用户输入必须验证和转义、禁止硬编码密钥
- 这一步成本为零,但能过滤掉 50% 以上的低级安全问题
第二层:CI/CD 中的自动化扫描
- 接入 Semgrep、Snyk 或 CodeQL,每次 PR 自动跑安全扫描
- 设置阻断规则:高危漏洞不修复不准合并
- 推荐 Semgrep——开源免费,规则库覆盖广,对独立开发者最友好
第三层:上线前的 Agent 审查
- 试用 Codex Security(目前免费研究预览)
- 或者用 Claude Code 做代码安全审查——给它一个安全审计员的角色,让它逐文件检查
- 用 AI 审查 AI 生成的代码,形成交叉验证
分析三:RAG 投毒——99% 的团队没意识到的新型攻击面
如果说代码安全是"老问题的新变种",那 RAG 文档投毒就是一个全新的、大多数人完全没有防备的攻击面。
3 分钟,3 个假文档,2470 万变成 830 万
安全研究员 Amine Raji 在 MacBook Pro 上完成了这次攻击演示:
- 向一个 ChromaDB 知识库注入 3 个精心构造的虚假文档
- RAG 系统随后自信地报告公司 Q4 营收为 830 万美元(下跌 47%)
- 实际知识库中的真实数据是 2470 万美元营收、650 万美元利润
没有修改用户查询,没有利用软件漏洞,只是往知识库里加了几个文档。 不需要 GPU,不需要云服务,本地即可复现。
为什么这对出海团队特别危险?
如果你的产品使用了 RAG 架构(知识库问答、AI 客服、文档助手),思考以下场景:
- 内部知识库被投毒:竞争对手或恶意员工注入虚假产品信息,AI 客服向客户传递错误数据
- 用户可上传文档的产品:用户提交的文档中嵌入了干扰信息,污染了整个知识库
- 接入外部数据源的 Agent:从第三方 API 或爬虫获取的数据未经验证就入库,攻击者通过控制数据源间接投毒
这不是理论推演。RAG 投毒的技术门槛极低(3 分钟复现),而防御门槛却不低——你需要做数据源验证、文档权限隔离、向量相似度异常检测等一系列工作。
防御建议
- 数据源白名单:只接受经过验证的数据源写入知识库,拒绝一切未经审核的外部输入
- 文档权限隔离:不同来源的文档在向量库中做逻辑隔离,避免一个被污染源影响全局
- 定期审计:每周抽检向量数据库中的文档内容,关注新增文档的异常模式
- 输出校验:对 RAG 系统的关键输出(尤其是涉及数字、金额、日期的回答)做后置校验
总结:出海团队的安全行动清单
安全问题的残酷之处在于:你不会因为做了安全而多赚钱,但你会因为没做安全而失去一切。
尤其是面向欧美市场的出海团队,一次安全事故可能意味着:GDPR 罚款(最高年收入 4%)、客户信任崩塌、产品下架。这不是危言耸听,而是已经发生在多个出海团队身上的真实故事。
本周就做(30 分钟内完成)
- 在你的 AI 编程工具配置文件中加入安全编码规范(
.cursorrules/CLAUDE.md) - 写明:参数化查询、输入验证、禁止硬编码密钥、使用安全哈希
- 对最近一周 AI 生成的代码做一次安全回顾,重点检查认证、支付和数据处理模块
本月要做
- 在 CI/CD 中集成 Semgrep 或 Snyk,每次 PR 自动扫描
- 试用 OpenAI Codex Security(免费研究预览版),评估是否纳入工作流
- 如果你的产品有 RAG 架构,审计一遍数据源和写入权限
持续要做
- 每次 AI 生成的代码,都做至少一轮人工安全审查
- 关注 Promptfoo 的开源更新,它可能成为 AI 应用安全的标准工具
- 建立安全事件响应预案——不是"会不会出事",而是"出事了怎么办"
最后给一个明确判断:
2026 年下半年,"你的产品有没有做安全审计"将成为企业客户采购决策的标配问题。 现在投入安全建设的团队,半年后会发现这是他们最有回报的投资之一。而现在忽视安全的团队,可能根本活不到被问这个问题的时候。
安全不是成本,是竞争力。现在就开始。