Transformer LLaMA

news/2025/2/23 20:12:01

一、Transformer

Transformer:一种基于自注意力机制的神经网络结构,通过并行计算和多层特征抽取,有效解决了长序列依赖问题,实现了在自然语言处理等领域的突破。

Transformer 架构摆脱了RNNs,完全依靠 Attention的优势:

  • 并行地处理序列中的所有单词,从而大大加快了计算速度
  • 输入序列中单词之间的距离并不重要。Transformer 同样擅长计算相邻词和相距较远的词之间的依赖关系。

Attention Is All You Need

架构简介

在这里插入图片描述

左半部分是encoders,右半部分是decoders。注意,这里有一个xN,即encoder和decoder的个数,原文中是给定了6个。这两个还有一个特点,encoder和decoder架构是不相同的。

流程介绍:

  • Embedding: 词嵌入,将文本转成向量。最终得到的词嵌入矩阵是一个大小为(词汇量,嵌入维度)的二维数组矩阵。词嵌入矩阵中的向量​是通过Word2Vec、GloVe和FastText等训练词嵌入模型生成的。
  • Positional Encoding:位置编码,将向量加上位置信息。位置嵌入矩阵也是一个大小为(词汇量,嵌入维度)参数矩阵,通过训练过程优化或固定数学函数生成。词嵌入向量表示词语的语义信息,而位置嵌入向量表示词语在序列中的位置信息。通过将两者相加,最终的输入向量同时包含了词语的语义和位置信息。
  • Multi-Headed Self-Attention:多头自注意力机制,算出词与词关联度关系。在self-attention中,每个单词有3个不同的向量,它们分别是Query向量( Q),Key向量( K)和Value向量( V),长度一致。它们是通过3个不同的词位置嵌入向量 乘以3个不同的权值矩阵W 得到,最终基于多头注意力公式得到多头注意力向量。多头指的是使用多个不同的权值矩阵W 获取多组结果后再组成一组向量。
  • Add & Norm:残差链接和层归一化。这两个动作关乎的是训练过程,是为了让反向传播梯度下降,去寻找上面那一堆参数最优解的过程,更稳定。残差连接就是将多头向量与QKV操作前的原始向量直接相加,获得一个新的512维的向量,至少原始数据信息还在。层归一化有公式可以操作,其实都是重复的做简单的数学题。
  • Feed-Forward Network:前馈神经网络。前面步骤要不直接线性变换,要么就是直接的相加,将向量送入前馈神经网络,可以更精细化处理。首先连接到一个拥有更多神经元的全连接层,比如将512升为到2048维对应的权重矩阵,同时应用激活函数引入非线性,也就是以更高级的方式处理数据了。接下来再加一层,将2048维降回512继续的使用。此时的数据已经被重新精细处理过,同样是为了反向传播梯度下降,训练过程更稳定。总结来说,前馈神经网络通过其多层结构和非线性变换能力,能够有效地处理各种任务,帮助模型学习到有用的特征,并提高模型的性能。
  • Masked Multi-Headed Self-Attention:掩码多头自注意力机制。解码器掩掉句子后面的信息,与编码器整个输出交互, 不断预测训练,寻找整个模型的最佳参数组合,逼近人类语言。比如翻译训练过程,左边输入“我爱学习”, 右边对应输入“I like learning”,但是我们希望右边的句子是一个个基于前一个词推理输出的。因此右侧的过程是先“Shifed Target Sequence”,送入时多加了一个词:“[start] I like learning”,然后一样的处理:词嵌入、位置编码加入位置信息,进入掩码多头注意力操作,会将"[start]"后面的全遮盖住,数学上是将遮盖部分设为一个很大的负数,这样通过soflermax函数就直接忽略掉了后面这些信息。
  • Multi-Headed Cross-Attention:多头交叉注意力机制,利用解码器的输入(作为Query)与编码器的输出(作为Key和Value)计算注意力权重,使解码器动态关注编码器输出的相关信息,每个头独立学习不同的特征模式,最后将所有头的输出拼接,通过线性层融合得到最终结果。继续上面例子,"[start]“继续的进入,其实跟左边编码器同样的操作过程,也是三套参数生成Q、K、V三个向量。区别是K和V的生成用的是左侧编码器的输出向量生成的。这样解码器就将”[start]“与编码器的整个输出进行了交互。这样才能走出编码器,进行一次线性变换,通过Softmax函数输出下一个词的概率最大,那就是对的。再回头整个句子再输入进来。这次遮挡的是”[start] I"后面的,编码器混合交互完预测下一个词“like”概率最高。如此反复不断训练,不断的喂给它中英文对照的翻译数据集,不断的遮盖预测,不断的通过损失函数梯度下降反向传播,寻找整个模型的最佳参数组合,无限逼近人类自然语言。

Transformer算法相较于传统神经网络算法(如RNN、CNN等)具有以下显著优势:

  • 并行计算能力
    Transformer通过自注意力机制(Self-Attention)能够并行处理序列中的所有单词,而传统RNN需要逐个处理序列,导致计算速度较慢。这种并行性使得Transformer在训练和推理速度上具有显著优势。

  • 处理长距离依赖关系
    Transformer能够有效捕捉序列中单词之间的长距离依赖关系,而传统RNN在处理长序列时容易出现梯度消失或梯度爆炸问题,导致对长距离依赖的建模能力较弱。

  • 模块化架构
    Transformer由编码器(Encoder)和解码器(Decoder)组成,每个部分包含多个相同的模块(Block),这种模块化设计使得模型结构清晰且易于扩展。

  • 全局特征提取能力
    Transformer通过自注意力机制能够关注序列中的全局信息,而传统CNN主要关注局部特征。这种全局特征提取能力使得Transformer在自然语言处理等任务中表现更优。

  • 与CNN结合的潜力
    Transformer可以与CNN结合,如苹果的FastViT架构,将CNN的局部特征提取能力与Transformer的全局特征提取能力相结合,实现性能和准确率的平衡。

  • 硬件加速支持
    Transformer架构可以通过硬件加速(如NeuroBoost 9000)进一步优化性能,支持更大规模的模型和更复杂的任务。

我们首先把一个单独的encoder拿出来,去剖析一下里面的细节。

在这里插入图片描述

词嵌入 (Token Embedding )

输入部分分为两个小部分:第一部分就是embedding,第二部分就是位置编码。

Embedding层将离散的词汇或符号转换为连续的高维向量,使得模型能够处理和学习这些向量的语义关系。比如说我们的输入句子是“我爱你”

步骤1:词表映射
词表(Vocabulary):假设词表中有5000个词,每个词对应一个唯一ID。首先需要将每个词转换成对应的词ID:

"我" → ID 101
"爱" → ID 205
"你" → ID 209
"学习" → ID 307

步骤2:词嵌入矩阵
然后,这些ID会被输入到嵌入层(embedding layer),转换成向量。例如:

我 → [0.2, -0.1, 0.5 ...]
爱 → [0.1, 0.3, -0.2 ...]
你 → [-0.3, 0.2, 0.4 ...]
  • 词嵌入矩阵是一个大小为(词汇量,嵌入维度)的二维数组矩阵。行数对应词汇量,列数对应嵌入维度。每个词对应一行向量,用于表示该词的语义信息,如嵌入维度是512,则每个词含512个向量值。
  • 词嵌入矩阵中的向量,​是通过训练词嵌入模型生成的。常用的词嵌入模型包括Word2Vec、GloVe和FastText。这些模型通过分析大量文本数据,学习词语之间的关系,生成有意义的向量表示。
  • 生成的向量表示词语在高维空间中的位置,语义相近的词在向量空间中距离较近。例如,"king"和"queen"的向量会比较接近,而"king"和"apple"则会比较远。
  • 训练目标:通过最小化预测误差,模型调整词向量,使得语义相似的词在向量空间中接近,从而捕捉词语的语义和句法信息。

位置编码(Positional Encoding)

RNN有天然的时序关系,但是对于transformer来讲,单词是可以一起处理的,这样做增快了速度,但是忽略了单词之间的序列关系,这个时候,我们就需要位置编码。

Transformer原版的正弦/余弦编码公式如下:

在这里插入图片描述
其中,pos 是位置,i是维度索引,dmodel是模型维度。

特点:

  • 正弦函数保证编码值在 [−1,1] 之间,与词向量尺度匹配。
  • 不同频率的正弦/余弦组合,可捕捉不同粒度的位置关系。
  • 支持外推(处理比训练时更长的序列)。

正余弦编码的意义:

  • 先说pos, position就是单词或者是字的位置。它如果是512个维度的位置编码,这512个维度中偶数位置使用sin,奇数位置使用cos。
    sin和cos函数值域有限(定义域无限),可以很好地限制位置编码的数字大小。反观顺序编码:超长序列的pos可能会远远超过原始的语义、向量相加后会导致喧宾夺主的问题

  • 通过调节频率,我们可以得到多种多样的sin和cos函数。即:在pos的基础上乘以在这里插入图片描述 这个频率f的行为,我们可以让特征编号i小的特征被投射到剧烈变化(f大,趋于1,会被投射到高频率的正弦函数上)的维度上;让特征编号i大的特征被投射到轻微变化、甚至完全单调(f小,趋于0,会被投射到低频率的正弦函数上)的维度上。从而可以让小编号特征去捕捉样本之间的局部细节差异【位置相近的值,编码变化较大】,让大编号特征去捕捉样本之间按顺序排列的全局趋势【位置相近的值,编码变化较小】

1,位置嵌入的作用:在Transformer模型中,位置嵌入用于保存单词在序列中的位置信息。由于Transformer不使用RNN,无法自然捕捉顺序信息,因此位置嵌入至关重要。

2,生成方法:

  • 可学习的嵌入层:位置嵌入矩阵是一个参数矩阵,通过训练过程优化。模型在训练时,会调整这些向量,使得它们能够有效捕捉位置信息。例如,位置1的向量[0.1, 0.2, 0.3]可能是在训练过程中通过反向传播算法优化得到的。
  • 固定数学函数:另一种方法是使用固定的数学函数生成位置嵌入,比如正弦和余弦函数。这种方法不需要训练,位置信息由数学公式直接生成。

3,训练过程:在可学习的嵌入层中,模型通过反向传播算法调整位置嵌入矩阵的值,使得模型能够更好地捕捉位置信息。训练目标是优化模型的整体性能,包括准确率、F1分数等。

4,位置嵌入矩阵的作用:位置嵌入矩阵是一个二维数组,行数对应序列长度,列数对应嵌入维度。每个位置对应一行向量,用于表示该位置的信息。

5,向量表示的意义:生成的向量表示位置在高维空间中的位置,相邻位置的向量在向量空间中距离较近,反映了它们在序列中的相对位置

位置编码示例:

位置1 → [0.1, 0.2, 0.3 ...]
位置2 → [0.4, 0.5, 0.6 ...]
位置3 → [0.7, 0.8, 0.9 ...]

得到这个位置编码之后,我们将位置编码512维度和词向量维度的512个维度相加,得到一个最终的512维度,作为整个transformer的输入。

我(位置1)→ [0.3, 0.1, 0.8 ...]
爱(位置2)→ [0.5, 0.8, 0.4 ...]
你(位置3)→ [0.4, 1.0, 1.3 ...]

在这里插入图片描述

为什么位置编码会有用?
对样本的位置本身进行“编码”,利用数字本身自带的顺序来告知Transformer。
在这里插入图片描述

多头注意力机制(Multi-Head Attention)

我们先用这张图解释注意力机制:
在这里插入图片描述
人类在看一张图片的时候,肯定有最关注的部分和不怎么关注的部分,颜色深的表示很受关注,比较浅的就就不怎么受关注。我们想判断婴儿在干嘛,这句话更加关注于图片中的哪个区域,我们想通过公式或者通过某种方式得到这个结果,这就是这就是注意力机制的一种基本形式。

再举个例子,“一张狼抓住了一只兔子并开始疯狂撕咬它”。怎么让模型知道它指的谁呢?或者“我吃了个苹果”里面的“苹果”怎么让模型知道指的是水果还是手机?所以除了跟踪词义和位置之外,跟踪输入的每个词与词之间的关系也非常重要,我们就要量化这种关系了。接下来的这个模块就是要创造一个叫自注意力的东西。然后这个东西怎么做呢?我们先看一下transformer原论文中的注意力机制公式:
在这里插入图片描述
那么首先在transformer中是怎么获得Q、K、V 这3个向量的呢?

在这里插入图片描述
其实很简单,X1乘以一个WQ的矩阵参数得到q1,乘以WK矩阵的k1,乘以WV矩阵的v1。X2 我们也使用同一套矩阵参数得到。

2,然后根据公式计算Q、K相似度,得到attention值。

在这里插入图片描述
在这里插入图片描述

第3步,通过将查询矩阵和键举证相乘,得到了所有Query-Key之间的点积网络。可以理解为每个Q(查询)和K(值)的匹配相似度

在实际操作中会使用矩阵,方便并行:

在这里插入图片描述

还一个细节点就是说我们在操作的时候叫多头。我们在这里其实只用了一套参数,但是在实际操作的时候,我们会用多套(多头),得到各自的Q、K、V,最终也就输出了多个Z(可以理解为基于不同属性不同角度观察数据,更全面理解输入信息),最后合在一起作为一个输出,再来一次神经变换,最终就获得了多头注意力向量。
在这里插入图片描述

二、LLaMA

预训练模型(LLaMA)是Meta公司2023年2月推出的人工智能模型。2023年7月18日:Meta发布了开源大模型LLaMA 2,最大的卖点是开源且可商用。

2024年4月18日:Meta推出了新版本LLaMA人工智能模型LLaMA 3,已用于Meta AI助手,同时也面向开发者进行了开源。2024年9月25日:Meta在Connect开发者大会上,发布了能够同时理解图像和文本的最新多模态模型LLaMA 3.2,允许人们通过语音进行互动。

1、技术架构

LLaMA是建立在Transformer基础架构上的自回归语言模型,以序列的方式处理输入文本,通过预测下一个单词或标记来生成文本。在Transformer架构基础上,LLaMA 2引入了Grouped Query Attention等技术改进,提高了模型的效率和性能。

1.基础架构——Transformer

  • 核心组件:Transformer架构是LLaMA的基础,主要由编码器和解码器组成,两者都包含多个堆叠的多头注意力(Multi-Head Attention)层和前馈神经网络(Feed-Forward Neural Network,FFN)层。在LLaMA中,主要使用了解码器部分来进行自回归语言建模。

  • 工作原理:在输入文本后,首先会对文本进行分词处理,将其转换为一系列的标记(tokens)。每个标记会被映射到一个低维向量空间,得到对应的词向量表示。然后,这些词向量会依次进入解码器的各层。在每一层中,先通过多头注意力机制对输入信息进行加权聚合,捕捉文本中的长距离依赖关系,确定每个位置与其他位置的关联程度,计算出加权后的输出。之后,将多头注意力的输出送入前馈神经网络进行进一步的特征提取和变换,最终输出经过处理后的向量表示,用于生成下一个单词的概率分布等任务。

2.改进与优化

  • 位置编码:为了让模型能够捕捉文本中的顺序信息,LLaMA采用了旋转位置编码(Rotary Position Embedding)。与传统的位置编码方法不同,旋转位置编码通过对向量进行旋转操作来注入位置信息,能够更好地处理长序列数据,在长文本建模方面表现更优,有助于模型更准确地理解文本的顺序和结构。

  • 多头注意力机制的优化:在多头注意力机制中,LLaMA对计算方式和参数设置等方面进行了优化。通过调整头的数量、注意力头的维度等超参数,以及改进注意力权重的计算方法,提高了模型对文本中复杂语义关系的捕捉能力,使得模型能够更精细地分析文本中的不同信息,增强了模型的表示能力。

  • 层归一化(Layer Normalization):在每一层的计算中,LLaMA使用了层归一化技术。对神经网络的每一层输入进行归一化处理,使得输入数据在经过每一层时都具有稳定的分布,有助于加速模型的训练收敛,减少梯度消失或爆炸等问题,提高模型的稳定性和泛化能力。

  • 优化的激活函数:在FFN层中,LLaMA可能采用了一些改进的激活函数,如Swish等。这些激活函数具有更好的非线性特性,能够增强模型的表达能力,使模型能够更灵活地拟合各种复杂的语言模式,提高模型对语言知识的学习效果。

  • 高效的训练策略:在训练过程中,LLaMA采用了多种优化策略来提高训练效率和模型性能。例如,使用了大规模的数据集和高效的并行计算技术,通过数据并行和模型并行等方式,在多个GPU或TPU上进行分布式训练,加快训练速度。同时,采用了优化的学习率调度算法,根据训练的进度和模型的性能动态调整学习率,使得模型能够更快地收敛到较优的参数空间。

3.LLaMA 2的技术改进

  • 分组查询注意力(Grouped Query Attention):在LLaMA 2中引入了Grouped Query Attention技术,它可以在不降低模型性能的前提下,减少注意力计算的复杂度和内存占用,提高模型的推理速度和效率。通过将查询向量分组,共享部分键值对,减少了计算量,同时保持了对长序列数据的建模能力。

  • 上下文长度扩展:LLaMA 2将上下文长度限制进行了扩展,相比LLaMA能够处理更长的输入文本序列。这使得模型在处理长篇文档、复杂对话等任务时,能够更好地利用上下文信息,提高对长序列文本的理解和生成能力,增强了模型在实际应用中的适应性和灵活性。

2、参数规模

  • LLaMA:包括70亿、130亿、330亿、650亿这四种参数规模。

  • LLaMA 2:包含了70亿、130亿和700亿参数的模型。

  • LLaMA 3:大规模版本参数量超过1400亿。

3、训练数据

  • LLaMA:训练数据来源广泛,包括67.0% Common Crawl、15.0% C4、4.5% GitHub、4.5% Wikipedia、4.5% Books、2.5% Arxiv、2.0% Stack Exchange。

  • LLaMA 2:训练所用的token翻了一倍至2万亿,训练数据比前一代多了40%,有超过100万的人类注释来微调输出质量。

LLaMA模型的训练数据有以下特点:

1.来源广泛

  • 涵盖多领域数据:包括CommonCrawl、C4、GitHub、Wikipedia、Gutenberg and Books3、ArXiv、Stack Exchange等。涵盖网页文本、百科知识、代码、学术论文、文学作品、问答数据等多种类型,使模型能学习到丰富多样的语言知识和语义信息。

  • 包含多种语言数据:虽然以英语数据为主,但也包含一定比例的高质量非英语数据,如C4数据集覆盖了多种语言,让模型具备一定的跨语言理解和处理能力。

2.数据规模庞大

  • 海量token数据:LLaMA最初版本训练数据达1.4T个tokens,LLaMA2训练数据扩充到2万亿token,LLaMA3的训练数据量更是达到15.0T+ tokens。

  • 支持模型学习复杂知识:大规模数据使模型能够学习到语言中的各种模式、语义关系和知识,提升模型的语言理解和生成能力,使其能处理复杂自然语言任务。

3.注重数据质量

  • 严格数据过滤:开发了一系列数据过滤流水线,包含启发式过滤器、NSFW过滤器、语义去重方法、预测数据质量的文本分类器等,去除低质量、重复和不相关的数据。

  • 保证数据多样性和准确性:通过数据过滤和筛选,保留高质量数据,使模型学习到准确、有价值的语言知识,避免受到错误或低质量数据的干扰。

4.数据分布均衡

  • 多领域数据合理配比:在选择训练数据时,对不同领域和类型的数据进行了合理配比,避免某一领域数据过多或过少,使模型能均衡学习不同领域的知识。

  • 提升模型泛化能力:数据分布均衡有助于模型在各种任务和领域上都有较好的表现,提高模型的泛化能力,使其不局限于特定领域或类型的文本。

4、产品性能

  • LLaMA:LLaMA 130亿参数模型在大多数基准测试中优于GPT-3(1750亿参数),650亿参数的LLaMA与Chinchilla-70B和PaLM-540B等最佳模型具有竞争力。

  • LLaMA 2:对于使用大模型最重要的上下文长度限制,LLaMA 2也翻了一倍,在性能和功能上有显著提升,具备更好的语言理解和生成能力、多语言处理能力等。

  • LLaMA 3:参数量的大幅提升使其在语言理解、生成以及多模态处理等方面的能力进一步增强,能够更好地处理复杂任务,提供更准确、更丰富的输出。

  • LLaMA 3.2:作为多模态模型,结合了语音交互功能,极大地拓展了应用场景和用户交互方式,使模型能够更好地理解和处理多种形式的信息输入。

5、应用场景

1.自然语言处理领域

  • 内容生成:可用于撰写新闻报道、文案创作、故事编写等。比如媒体机构可以利用LLaMA快速生成新闻稿件的初稿,文案工作者能借助它获取创意和灵感,生成广告文案、宣传语等。

  • 文本摘要:能自动提取长篇文档、文章的关键信息,生成简洁准确的摘要,帮助用户快速了解文本的核心内容,适用于学术文献、商业报告、新闻资讯等各类文本。

  • 机器翻译:基于其对多语言的理解和生成能力,实现不同语言之间的文本翻译,为跨国交流、国际业务等提供语言支持。

  • 问答系统:构建智能问答平台,回答用户的各种问题,如知识问答、生活常识、技术问题等,常见于在线客服、智能助手、知识图谱应用等场景。

  • 文本分类:对新闻、评论、论文等文本进行分类,如区分新闻的类别(政治、经济、文化等)、判断用户评论的情感倾向(正面、负面、中性)等。

2.代码开发领域

  • 代码生成:根据用户输入的需求描述或功能要求,生成相应的代码片段或完整的代码模块,辅助开发人员快速实现功能,提高开发效率,例如生成网站开发中的前端页面代码、后端逻辑代码等。

  • 代码解释与文档生成:对现有的代码进行解释说明,生成代码文档,帮助开发人员理解代码的功能和逻辑,特别是在大型项目中,有助于新成员快速上手和团队协作。

  • 代码纠错与优化:分析代码中的错误和潜在问题,并提供修正建议和优化方案,提升代码质量和性能。

3.教育领域

  • 智能辅导:根据学生的学习情况和问题,提供个性化的学习建议和辅导,解答学生的疑问,帮助学生更好地理解和掌握知识。

  • 教育内容创作:协助教师编写教学资料、教案、练习题等教育内容,丰富教学资源。

  • 语言学习:辅助语言学习者进行口语练习、语法纠错、翻译等,提高语言学习效果。

4.医疗领域

  • 病历分析:帮助医生快速分析患者的病历信息,提取关键症状、诊断结果等,辅助医生进行病情判断和诊断。

  • 医疗知识问答:为患者或医护人员提供医疗知识解答,如常见疾病的症状、治疗方法、药物信息等。

  • 医疗报告生成:根据医疗检查数据和诊断结果,生成规范的医疗报告,减轻医生的书写负担。

5.金融领域

  • 市场分析与预测:分析金融市场数据、新闻、公司财报等信息,进行市场趋势预测、风险评估等,为投资者和金融机构提供决策支持。

  • 金融文本处理:处理金融领域的合同、报告、公告等文本,提取关键信息,进行文本分类和合规性检查等。

  • 智能投资顾问:根据用户的财务状况、投资目标等,提供个性化的投资建议和资产配置方案。

6.创意艺术领域

  • 艺术创作:艺术家可以通过微调LLaMA模型,训练它根据特定的风格、主题生成视觉艺术作品的描述或创意,甚至可以与图像生成技术结合,创作出独特的艺术作品。

  • 音乐创作:音乐家可以利用LLaMA生成音乐的旋律、和声、歌词等元素,为音乐创作提供灵感和创意。

三、大模型微调

1、‌定义‌

大模型微调指在‌预训练大模型‌(如 GPT、LLaMA 等)的基础上,使用特定任务或领域的数据集进行进一步训练,调整模型参数以优化其在目标场景下的性能,而无需从头训练新模型。其核心目的是将通用模型转化为适应特定需求的专用工具,实现知识注入与任务对齐‌。

2、‌微调流程与技术原理‌

  • 预训练模型加载‌:
    基于已在大规模通用数据(如互联网文本)上完成无监督训练的模型,继承其通用语言理解能力‌34。‌
  • 任务数据适配‌:
    使用少量标注数据(如情感分析标签、代码生成示例)进行有监督训练,通过反向传播调整模型参数,使其适应目标任务‌34。‌
  • 性能优化与收敛‌:
    通过损失函数计算预测与标签的偏差,迭代优化模型权重,提升特定任务准确率‌34。

3、‌微调的核心优势‌

  • 效率提升‌:
    相比从头训练,微调显著减少训练时间和算力消耗,且能复用预训练模型的通用知识‌56。
  • ‌灵活性与适配性‌:
    支持垂直领域定制(如医疗问答、法律文书生成),通过调整数据即可快速适配新场景‌24。
    ‌- 性能增强‌:
    在特定任务中,微调后的模型性能通常优于直接使用预训练模型的零样本(Zero-shot)或小样本(Few-shot)方法‌16。

4、‌典型应用场景‌

‌- 自然语言处理‌:情感分析、文本摘要、机器翻译等任务的优化‌23;
‌- 代码生成‌:根据企业代码规范调整生成逻辑‌4;
‌- 多模态任务‌:结合图像描述数据微调视觉-语言联合模型‌

5、微调方法和示例

在这里插入图片描述

(1) 通用任务优化案例:Athene-V2-Chat-72B‌

  • 模型基础‌:基于 ‌Qwen-2.5-72B-Instruct‌ 预训练模型微调,目标为提升聊天、数学与编程任务性能‌。
  • ‌数据准备‌:
    • 使用高质量对话数据集,覆盖多轮对话、数学解题步骤与代码生成示例;
    • 数据格式为“输入-输出”对(如 {“prompt”: “用户问题”, “completion”: “模型回答”})‌。
  • ‌效果提升‌:
    微调后模型在 ‌Chatbot Arena‌ 排行榜排名从第19位上升至第10位,推理与代码生成准确率显著提高‌。

(2) 垂直领域适配案例:医疗问答系统‌

  • ‌场景需求‌:将通用大模型适配至医疗领域,提升术语理解与诊疗建议准确性。
  • ‌微调方法‌:
    • ‌数据选择‌:采用医学文献、患者问答记录与诊疗指南构建数据集‌;
    • ‌轻量化调整‌:通过 ‌LoRA(低秩适配)‌ 仅更新部分参数,保留预训练模型的通用知识‌。
  • ‌落地成果‌:
    模型对疾病诊断、药物相互作用等专业问题的回答准确率提升 35%,且符合医疗合规要求‌。

(3) 企业定制化案例:代码生成规范适配‌

  • 目标‌:使模型生成的代码符合企业内部编程规范(如命名规则、注释标准)。
  • ‌实现路径‌:
    ‌数据构造‌:收集企业历史代码库与规范文档,生成“需求描述-合规代码”配对数据‌;
    ‌冻结层微调‌:仅调整模型顶层参数,减少对通用代码生成能力的干扰‌。‌
  • 收益‌:
    生成代码的规范符合率从 60% 提升至 92%,减少人工审查成本‌

http://www.niftyadmin.cn/n/5863737.html

相关文章

使用docker配置PostgreSQL

配置docker阿里云镜像仓库 国内使用docker hub拉取镜像比较慢,所以首先配置个人的镜像仓库。 阿里云的个人镜像仓库是免费的,对个人来说足够用。 具体操作参考阿里云官方链接 。 关于个人镜像仓库的使用参考链接。 配置完个人镜像仓库后将公网配置到doc…

Markdown使用方法文字版解读

[TOC](这里写自定义目录标题) # Markdown编辑器 你好! 这是你第一次使用 **Markdown编辑器** 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。 ## 新的改变 我们对Markdown编辑器进行了…

HTML之JavaScript DOM简介

HTML之JavaScript DOM简介 DOM对象是一个树形对象 DOM树上的结点类型分类&#xff1a; 元素节点 element 标签属性节点 attribute 属性文本节点 text 双标签中间的文本 HTML代码 <!DOCTYPE html> <html lang"en"> <head><meta charset"UT…

seacmsv9 SQL注入漏洞(报错注入)

一、海洋CMS简介 海洋cms是为解决站长核心需求而设计的视频内容管理系统&#xff0c;一套程序自适应电脑、手机、平板、APP多个终端入口&#xff0c;无任何加密代码、安全有保障&#xff0c;是您最佳的建站工具。——来自seacms官网&#xff08;简而言之就是专门搭建看片网站的…

Android输入事件传递流程系统源码级解析

1. 硬件层到Linux内核 设备节点&#xff1a;触摸事件由内核驱动捕获&#xff0c;写入/dev/input/eventX。关键结构体&#xff1a;input_event&#xff08;包含时间戳、类型、代码、值&#xff09;。 2. Native层处理&#xff08;system_server进程&#xff09; 2.1 EventHub …

DeepSeek:AI商业化的新引擎与未来蓝图

摘要 在人工智能迅猛发展的浪潮中&#xff0c;DeepSeek以其卓越的技术实力和高超的商业化能力崭露头角。作为一款现象级AI产品&#xff0c;它不仅在算法性能上位居行业前列&#xff0c;还通过灵活的定制解决方案渗透到金融、医疗、零售等多个领域。DeepSeek以创新的商业模式和场…

Python爬虫实战:获取腾牛网高清壁纸图片

注意:以下内容仅供技术研究,请遵守目标网站的robots.txt规定,控制请求频率避免对目标服务器造成过大压力! 1. 核心思路 要使用爬虫技术从 www.qqtn.com 网站获取壁纸图片,核心思路是模拟浏览器向目标网站发送请求,获取网页的 HTML 内容,然后对其进行解析以提取图片链接…

华为动态路由-OSPF-综合案例

华为动态路由-OSPF-综合案例 一、OSPF简介 1、OSPF概述 OSPF是一种开放式的、基于链路状态的内部网关协议&#xff08;IGP&#xff09;&#xff0c;用于在自治系统内部进行路由选择和通信。 OSPF是互联网工程任务组&#xff08;IETF&#xff09;定义的标准之一&#xff0c;被…