大模型参数高效微调(PEFT)有九大主流方法,包括适配器、软提示等。这些方法主要在2021-2023年创立,后续多为小改进。工程应用推荐Adapter/LoRA,可在有限硬件上高效微调模型。
整体来看,主要分以下六大派系。
添加派(Additive)
添加派的方法是将一小组可训练参数添加到预训练模型中,并仔细集成到其架构中。
在对特定下游任务进行微调时,仅调整这些额外的组件或参数,保持原始预训练的模型参数不变。
适配器(Adapter)
将小型适配器层插入到预先训练的模型中。
一些经典的方法包括:
- Standard Adapter:由下投影、非线性激活函数和上投影层组成
- Hadamard Adapter:采用权重向量和偏置向量,将 Hadamard 乘积(逐元素乘法)和逐元素加法应用于自注意力输出,从而产生新的自注意力输出
- Tiny-Attention Adapter:通过在 Adapter 中嵌入一个低维、低头数的注意力机制,对隐藏特征进行局部建模与动态重加权。
软提示(Soft prompt)
软提示是指将一系列可训练连续向量(称为软提示)附加到预训练语言模型的输入中。这些软提示充当附加上下文,引导模型获得特定任务所需的输出。
在训练过程中,软提示被优化以促进模型适应新任务,而模型的其余部分基本保持不变。
缩放和平移(Scale and Shift)
缩放和平移是指通过对模型内部激活或权重施加可学习的缩放与偏移参数,实现对特征分布的轻量调整,有点类似于BN层里面的缩放和平移参数。
一些经典的方法包括:
- (IA)3:添加三个缩放向量来分别缩放键、值和前馈激活
- SSF:通过线性变换修改预训练模型提取的深层特征
- PASTA:修改了预训练模型中的特殊令牌表示
重参数化派(Reparameterized)
重参数化派主要是构建低秩可学习参数矩阵以适应特定的下游任务。
训练时,仅对低秩参数矩阵进行微调,而在推理时,将学习到的矩阵与预训练的参数相结合,以确保推理速度不受影响。
低秩分解(Low-rank Decomposition)
通过低秩矩阵分解(LoRA)的方式,将原本高维的权重更新压缩为少量可训练参数。
这个方法估计是最有名的,不必多言。
LoRA 衍生方法(LoRA Derivatives)
在LoRA基础上,引入动态秩、自适应更新或结构改进机制,以进一步提升参数利用效率、稳定性或任务泛化能力。
以下是一些经典的改进方法:
- DyLoRA:通过在训练期间针对一系列等级训练低等级适配器(LoRA)块,按不同等级排序,使模型能够灵活并在更广泛的等级范围内表现良好
- AdaLoRA:根据权重矩阵的重要性得分动态分配权重矩阵之间的预算,其中增量更新以奇异值分解的形式参数化
- IncreLoRA:在训练过程中根据每个模块的重要性分数增量分配可训练参数
选择派(Selective)
选择派是选择预训练模型参数的一个非常小的子集进行微调。
根据参数选择的方式不同,可分为非结构化选择和结构化选择。
非结构化选择(Unstructured Selection)
通过掩码、剪枝或参数重要性评估,仅更新模型中对任务最关键的参数子集,而不对整体结构施加约束,灵活性高但可解释性相对较弱。
一些经典的方法:
- LoRAPrune:利用低秩矩阵A和B的梯度来近似预训练模型权重W0中每个参数的重要性,然后使用低秩矩阵A和B以迭代和渐进的方式执行结构化剪枝,在保持性能的同时有效地减小模型的大小
- Child-tuning:在微调期间仅更新参数子集(称为子网络),同时屏蔽后向传递中剩余参数的梯度
- LT-SFT:根据彩票假设 (LTH) 的变体学习稀疏的实值掩码,以实现零样本跨语言迁移
结构化选择(Structured Selection)
以模块、层级或特定功能单元为粒度进行参数选择性更新,强调结构一致性,比非结构化选择会更有解释性。
比如,Xattn Tuning仅更新机器翻译 Transformer 模型中的交叉注意力参数,表明它可以实现与微调整个模型几乎相同的性能,同时还可以实现跨语言对齐的嵌入,从而减轻灾难性遗忘并实现零样本翻译功能。
混合派(Hybrid)
通过组合多种参数高效微调范式(如 Adapter、Prompt、低秩分解或选择性更新),在表达能力与参数效率之间取得更优平衡。
换句话说,就是把前面的哪些方案做了融合。
量化派(Quantization)
通过低比特表示或量化感知训练,对可训练参数或权重更新过程进行压缩,使超大规模模型能够在受限硬件条件下完成微调与部署。
比较出名的工作是QLoRA,利用 4 位 NormalFloat (NF4) 精度来量化预训练模型,并通过双量化和分页优化器进行增强,以防止梯度检查点内存峰值。
QA-LoRA通过采用分组操作来解决量化和自适应之间的不平衡,增加了低比特量化的灵活性。它在微调期间,LLM 权重被量化以节省时间和内存,微调后,LLM 和辅助权重无缝集成到量化模型中,而不会损失准确性。
多任务派(Multi-task)
上面的各方法都是为下游单任务服务,多任务派就是用下游多个任务去共同学习,对于方法的类型上,没有大的区别:
- 基于 Adapter:通过共享或融合多个任务对应的适配器模块,实现跨任务知识迁移与高效复用。
- 基于软提示(Soft Prompt):为不同任务分配独立或可组合的提示向量,在共享主干模型的同时实现多任务适配。
- 基于低秩分解(LoRA):在低秩参数空间中引入任务条件或模块化设计,使模型能够在多个任务之间进行高效切换与联合训练。
总结
看下来,大模型微调领域范式创立时期是 2021-2023 年:
LoRA (2021)、P-Tuning v2 (2021)、QLoRA (2023) 解决了大模型微调的根本问题:如何在有限硬件上高效且不牺牲太多性能地微调模型。
是到23年之后,就没有大的变化,基本上都是在基石基础上缝缝补补的小改进。
在工程领域,研究的更多的是把 QLoRA/LoRA 运行得更快、更稳定的问题。比如,FlashAttention 等技术实现了训练效率的提升,以及内存管理策略的优化。
一句话总结,如果要工程应用,采用Adapter/LoRA,足够解决问题;如果要做学术研究,可挖掘的空间不大。
那么,如何系统的去学习大模型LLM?
作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。
👉大模型学习指南+路线汇总👈
我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!