今天分享的是:梁斌Penny:文科生听懂大模型(1.0)
报告共计:42页
文科生也能看懂大模型:从神经网络到Transformer的通俗解读
在人工智能飞速发展的当下,大模型已成为改变生活的重要技术,但复杂的技术原理却让不少文科生望而却步。梁斌Penny所著的《文科生听懂大模型》,以通俗的语言和清晰的逻辑,将大模型背后的核心技术拆解开来,为非技术背景的读者打开了一扇理解大模型的大门。
要理解大模型,首先得从神经网络说起。神经网络之所以能产生智能,核心在于两个关键认知:一是任何事物都能被『数字化』,无论是文字、图像还是声音,都可转化为计算机能处理的数字形式;二是任何复杂的函数,即便没有明确的解析式,也能通过神经网络来表达。
神经网络的基本构成离不开权重、偏置和激活函数这三个核心要素。权重就像信号的“放大器”或“衰减器”,用来衡量每个输入信号的重要性,权重越大,对应信号对最终输出的影响就越强;偏置则是一个常数项,即便没有输入信号,它也能让神经元拥有基础输出值,帮助神经元更容易被激活或抑制;激活函数相当于神经元的“开关”,能将加权输入(权重×输入+偏置)转化为非线性输出,正是这种非线性特性,让神经网络得以处理图像识别、语言翻译等复杂任务。
在神经网络的训练过程中,梯度和反向传播是关键环节。梯度可以理解为“损失函数的变化方向”,以地形高度函数为例,梯度就像山坡最陡峭的方向,沿着正梯度方向,损失函数值会增大,沿着负梯度方向,损失函数值则会减小。反向传播则利用梯度,从输出层往输入层反向调整权重和偏置,不断降低模型预测结果与真实结果之间的误差(即损失值)。学习率则决定了每次调整参数的“步长”,步长过大可能导致模型训练不稳定,步长过小则会让训练效率低下。
自编码器(AutoEncode)是神经网络的一种重要应用形式,它的核心是学习一个“输入→压缩→重建输入”的函数。通过编码器将输入数据压缩成低维度的特征表示,再通过解码器将这些特征重建为原始数据,训练过程中不断调整参数以降低重建误差。自编码器的用途十分广泛,在嵌入表示(Embedding)、人脸识别、手写识别等领域都发挥着重要作用。比如在文字处理中,它能将“cat”“dog”等词语转化为一串数字向量,让计算机理解词语间的语义关联。同时,为了避免模型“过拟合”(即只擅长处理训练数据,对新数据表现差),还可采用L1/L2正则化、Dropout等方法,L1正则化能让部分权重变为零,突出关键特征,L2正则化则能让权重保持较小且分散的状态,提升模型的泛化能力。
如果说神经网络是大模型的“地基”,那Transformer架构就是大模型的“主体框架”。Transformer的输入输出设计巧妙,输入嵌入(Input Embedding)由词嵌入(Token Embedding)和位置编码(Positional Encoding)结合而成。以句子“i love machine learning”为例,先将句子拆分为单个词语,每个词语映射为固定维度的向量(即词嵌入),再通过正弦/余弦函数生成位置编码,体现词语在句子中的顺序信息,最后将词嵌入与对应位置编码逐元素相加,就得到了Transformer可处理的输入数据。
注意力机制是Transformer架构的“灵魂”。它能让模型在处理句子时,动态关注不同词语,就像人阅读时会重点关注关键信息一样。比如在“an apple and an orange”这句话中,注意力机制会让“apple”更多地关联“orange”,而较少关注“an”“and”。其核心公式为“Attention(Q, K, V)=softmax((QK^T)/√(d_k))V”,其中Q(查询)、K(键)、V(值)分别对应不同的向量表示,softmax函数则能将计算结果转化为概率分布,避免负数抵消信号,让模型明确该重点关注哪些部分。
多头注意力机制进一步增强了模型的理解能力。它将输入拆分为多个“头”,每个头独立计算注意力,捕捉不同维度的语义信息,之后再将所有头的结果拼接起来,通过线性变换融合特征。不过,头的数量并非越多越好,过多的头会增加计算成本,像GPT - 3这样的大型模型也仅使用了96个头。
在Transformer架构中,Add & Norm和FeedForward模块也不可或缺。Add(残差连接)能将多头注意力的输出与输入直接相加,解决深层网络训练中的梯度消失问题,让模型更容易训练;Norm(层归一化)则对残差连接的结果进行归一化处理,让数据分布更稳定,加速训练进程。FeedForward(前馈神经网络层)位于多头注意力之后,通过两次线性变换和一次ReLU激活函数,对数据进行进一步的特征提取和非线性变换,增强模型的表达能力。比如将512维的输入向量先映射到2048维,经过ReLU激活后再映射回512维,既丰富了特征信息,又保持了输入输出维度一致。
Transformer的层数(通常用Nx表示,一般为6层)也对模型性能有重要影响。多层结构能让模型逐步学习从低级到高级的特征,就像人先认识单个字母,再理解词语,最后掌握句子语义一样。低层网络学习简单的局部特征,高层网络则整合这些局部特征,形成更抽象、更复杂的全局特征,从而更好地捕捉语言中的长距离依赖关系。
在解码器部分,为了确保生成的序列符合“自回归”特性(即每个词的生成只依赖前面已生成的词),会采用右移输出(Outputs shift right)和遮蔽多头注意力(Masked Multiple - Head Attention)。比如生成“He goes to school”时,右移后的序列变为“<start> He goes to”,遮蔽矩阵会限制模型只能关注当前位置之前的词语,避免“偷看”未来的信息,保证生成过程的合理性。
最后,线性层(Linear)和softmax函数将解码器的输出转化为最终的概率分布。线性层把解码器输出的隐藏层向量(如512维)映射到与词汇表大小一致的维度,softmax函数则将映射后的数值转化为概率,概率最高的词语就是模型预测的下一个词。在实际生成过程中,为了提升结果质量,还会采用束搜索(Beam Search)等策略,保留多个候选序列,而非只选择概率最高的单个词,让生成的内容更连贯、更符合语境。
通过对神经网络和Transformer架构的拆解,我们会发现,看似高深的大模型,其核心原理并非遥不可及。这些技术就像搭建积木一样,从基础的神经元到复杂的多层架构,一步步构建出能理解、生成人类语言的智能系统。对于文科生而言,理解这些原理不仅能帮助我们更好地运用大模型,还能让我们在这个智能化时代,更清晰地看清技术发展的底层逻辑,拥抱技术带来的无限可能。
以下为报告节选内容
报告共计: 42页
中小未来圈,你需要的资料,我这里都有!