在谈论大模型时,我们经常会听到 “参数” 这个词。那么,参数到底是什么?它又是如何工作并影响大模型性能的呢?AI 科普达人 New Machina 用最通俗易懂的方式,解释了这一神经网络中最基础也最重要的概念,并详细解释了它是如何决定大模型的学习能力和表现。

New Machina 借助一个简单的神经网络来说明参数的作用。一个典型的神经网络由输入层、隐藏层和输出层组成,每层之间的神经元通过连接权重相连。这些权重就像是神经元之间的“通道”,决定了信息传递的强弱。举个例子,如果某个权重较大,就意味着这条连接路径会传递更强的信号。反之,较小的权重则会削弱信号的传递。

除了权重,每个神经元还带有一个叫做 “偏置” 的参数。偏置的作用是调整神经元的激活阈值,可以理解为在神经元的计算结果上加了一个基准值,从而帮助模型更好地适应数据分布。权重和偏置共同构成了神经网络中的可学习参数。

为了更具体地说明,假设我们有一个包含 3 个输入神经元、两个各有 4 个神经元的隐藏层,以及 2 个输出神经元的网络。按照参数计算公式,第一层到第二层有 16 个参数,第二层到第三层有 20 个参数,最后到输出层有 10 个参数,总计 16 + 20 + 10 = 46 个参数。虽然在这个小例子中参数数量不多,但在实际的深度学习模型中,参数的数量往往达到数百万甚至数十亿级别。

这些参数最初是随机初始化的,就像一张白纸。通过训练过程,模型不断调整这些参数的值,逐步从数据中学习模式和规律。一般来说,参数数量越多,模型理论上能够捕捉到的数据模式就越复杂,但这也意味着需要更多的数据和计算资源来完成训练。