AI更新
Mercury 2 发布:扩散式推理模型,速度比 Claude/GPT 快 10 倍
Inception Labs 推出基于扩散架构的推理大模型 Mercury 2,每秒生成超 1000 tokens,端到端延迟仅为主流模型的 1/10,已上线 OpenRouter。
Mercury 2 发布:扩散式推理模型,速度比 Claude/GPT 快 10 倍
AI更新
什么是扩散式 LLM?
Mercury 2 采用了一种全新的文本生成方式——扩散模型(Diffusion Model)。传统大模型逐个 token 生成文字,而扩散模型可以并行"去噪"生成多个 token,大幅提升速度。
核心数据
- 推理速度:超过 1000 tokens/秒,比 OpenAI、Anthropic、Google 的速度优化模型快 5-10 倍
- 质量水平:推理能力对标前沿模型,在编程和 Agent 任务上表现优异
- 已上线:通过 OpenRouter 可直接调用
对开发者的意义
Inception Labs 创始人 Stefano Ermon(斯坦福教授)表示,Mercury 2 特别适合对延迟敏感的场景:
- 实时 Agent 循环(等待时间从秒级降到毫秒级)
- 编码工作流(代码补全更流畅)
- 多步推理任务(研究 Agent 可做查询扩展→搜索→综合→验证)