大语言模型训练与微调工具及平台的技术研究

高效微调技术与参数高效微调(PEFT)框架

这组文献聚焦于如何降低大语言模型微调的算力门槛。涵盖了核心算法(如QLoRA)、统一的微调工作流工具(LLaMA-Factory、PEFT-Factory)以及多种适配器集成框架(LLM-Adapters),并对LoRA/QLoRA在不同模型上的性能表现进行了对比实验。

领域适应性定制与特定任务能力增强

该组论文探讨了如何通过微调或数据构建,使通用大模型具备特定领域或特定功能的能力。研究方向包括:中文语言能力的增强、外部工具(API)的使用能力、代码审查自动化、推荐系统对齐以及中国古诗词生成等垂直应用场景。

企业级部署策略、知识注入与安全强化

这部分文献侧重于大模型在企业环境中的落地实践。讨论了微调与检索增强生成(RAG)在知识注入上的效果对比、企业私有数据微调的实践指南、差异化隐私(Differential Privacy)下的安全微调方案,以及大模型在企业信息化中的整体挑战。

模型架构演进、对齐技术与多模态综述

该组文献提供了更宏观的技术视角,涉及大模型体系结构的演进趋势。包括ChatGLM等国产模型家族的迭代经验、基于Transformer的NLP模型发展史,以及从单模态向通用多模态基础模型演进的深度综述。

  • ChatGLM: A Family of Large Language Models from GLM-130B to GLM-4 All ToolsTeam GLM, :, Aohan Zeng, Bin Xu, Bowen Wang, Chenhui Zhang, Da Gang Yin, Diego Rojas, Guanyu Feng, Hanlin Zhao, Hanyu Lai, Hao Yu, Hongning Wang, Jiadai Sun, Jiajie Zhang, Jiale Cheng, Jiayi Gui, Jie Tang, Jing Zhang, Juanzi Li, Lei Zhao, Lindong Wu, Lucen Zhong, M. Liu, Minlie Huang, Peng Zhang, Qinkai Zheng, Rui Lu, Shuaiqi Duan, Shudan Zhang, Shulin Cao, Shuxun Yang, Weng Lam Tam, Wenyi Zhao, Xiao Liu, Xia Xiao, Xiaohan Zhang, Xiaotao Gu, LV Xin, Xinghan Liu, Xinyi Liu, Xinyue Yang, Xixuan Song, Xunkai Zhang, Yifan An, Yifan Xu, Yilin Niu, Yuantao Yang, Yueyan Li, Yushi Bai, Yuxiao Dong, Zehan Qi, Zhaoyu Wang, Zhen Yang, Zhengxiao Du, Zhenyu Hou, Zihan Wang, Hou, Zhenyu, Wang, Zihan, 2024, arXiv (Cornell University)
  • 基于Transformer的自然语言处理模型综述赖鸣姝, 2023, 人工智能与机器人研究
  • Multimodal Foundation Models: From Specialists to General-Purpose AssistantsChunyuan Li, Zhe Gan, Zhengyuan Yang, Jianwei Yang, Linjie Li, Lijuan Wang, Jianfeng Gao, 2024, Foundations and Trends® in Computer Graphics and Vision
大语言模型训练与微调工具及平台的技术研究

本组参考文献系统地展示了大语言模型从底层训练算法、高效微调工具链、特定领域能力扩展,到企业级落地策略及安全防御的技术全景。研究重点已从单纯追求模型参数规模演进为:1. 开发如LLaMA-Factory和PEFT-Factory等集成化工具平台;2. 探索LoRA、QLoRA等参数高效型微调方案以降低资源消耗;3. 深入研究模型在特定任务(工具调用、代码审查、推荐等)中的对齐与泛化;4. 权衡微调与RAG在知识更新中的优劣,并兼顾数据隐私安全。

18 篇文献,4 个研究方向
高效微调技术与参数高效微调(PEFT)框架
这组文献聚焦于如何降低大语言模型微调的算力门槛。涵盖了核心算法(如QLoRA)、统一的微调工作流工具(LLaMA-Factory、PEFT-Factory)以及多种适配器集成框架(LLM-Adapters),并对LoRA/QLoRA在不同模型上的性能表现进行了对比实验。相关文献: Tim Dettmers et. al, 2023 等 6 篇文献
领域适应性定制与特定任务能力增强
该组论文探讨了如何通过微调或数据构建,使通用大模型具备特定领域或特定功能的能力。研究方向包括:中文语言能力的增强、外部工具(API)的使用能力、代码审查自动化、推荐系统对齐以及中国古诗词生成等垂直应用场景。相关文献: Yiming Cui et. al, 2023 等 5 篇文献
企业级部署策略、知识注入与安全强化
这部分文献侧重于大模型在企业环境中的落地实践。讨论了微调与检索增强生成(RAG)在知识注入上的效果对比、企业私有数据微调的实践指南、差异化隐私(Differential Privacy)下的安全微调方案,以及大模型在企业信息化中的整体挑战。 相关文献: Oded Ovadia et. al, 2024 等 4 篇文献
模型架构演进、对齐技术与多模态综述
该组文献提供了更宏观的技术视角,涉及大模型体系结构的演进趋势。包括ChatGLM等国产模型家族的迭代经验、基于Transformer的NLP模型发展史,以及从单模态向通用多模态基础模型演进的深度综述。相关文献: Team GLM et. al, 2024 等 3 篇文献