大语言模型领域迎来一个重大突破!Inception Labs 推出了首个生产级【扩散型大语言模型】(Diffusion Large Language Model):Mercury。这一创新打破了传统大语言模型顺序生成文本的局限,将扩散模型的优势引入文本生成领域,实现了惊人的性能提升:推理速度提高 10 倍,成本降低 10 倍。

传统大语言模型采用自回归方式工作,必须按顺序逐个生成 token。这种方式虽然直观,但存在明显瓶颈:生成长文本时延迟较大,且计算开销高。而扩散型大语言模型借鉴了图像生成领域的成功经验,采用 "从粗到细" 的生成策略。首先一次性生成整个粗糙答案,然后通过多轮迭代优化,逐步提升质量直至达到预期水平。

这种架构创新带来的不仅是速度的提升。因为模型可以 "看到" 整体输出并进行全局优化,它在推理能力和输出结构化方面都展现出独特优势。更重要的是,这种架构为控制生成过程提供了新的可能。模型可以以任意顺序生成和编辑 token,为确保输出符合特定格式或安全要求提供了更大灵活性。

有趣的是,尽管扩散模型在图像生成领域已经取得巨大成功,但在文本生成领域一直未能突破。正如 AI 领域专家安德烈·卡帕斯 (Andrej Karpathy) 所说,这背后涉及信息分布、噪声感知等深层次问题。Mercury 的成功或许预示着我们即将看到一个全新的模型范式,它可能展现出与传统大语言模型完全不同的特性和能力。

这一突破对 AI 应用领域的影响可能超出预期。更快的推理速度和更低的计算开销,使得在本地设备上运行强大的语言模型成为可能。对于AI智能体来说,这意味着可以在相同时间内进行更多思考和推理,从而提供更高质量的输出。在代码生成等特定任务中,Mercury 已经展示出显著优势,完成同样任务仅需传统模型 1/6 的时间。

虽然目前这项技术还处于早期阶段,但它为大语言模型的发展开辟了一条全新道路。随着技术的进一步成熟,我们可能会看到更多基于扩散的语言模型涌现,推动 AI 技术向更高效、更智能的方向发展。这不仅是技术创新,更代表着我们对语言模型本质的深化理解。

Inception Labs 官网:https://www.inceptionlabs.ai/