课程大纲
课程简介:
本课程面向希望在本地环境中高效部署与微调大模型的开发者与算法工程师。我们将通过系统化的实战教学,带你掌握从模型本地部署、推理优化,到使用 LLaMA-Factory 进行全流程微调的完整技能栈,最终能够独立实现生产级的本地大模型定制与应用。
第一天:本地大模型部署与推理优化
掌握 Ollama 与 vLLM 的部署与配置,实现多模型本地管理。
学习使用 Hugging Face 与 ModelScope 获取模型资源。
理解大模型训练与推理基础,包括 Transformer 架构、注意力机制与 RLHF 流程。
动手部署 DeepSeek-R1、Qwen 等主流模型,并构建本地 API 服务。
第二天:LLaMA-Factory 基础微调全流程
学习 LLaMA-Factory 框架的安装与环境配置。
掌握数据集准备与格式转换(Alpaca、ShareGPT 等)。
完成从 SFT 训练、超参数调优到模型评估与导出的完整微调流程。
学习模型量化与轻量化部署,实现高性能本地推理。
第三天:进阶微调技术与多模态应用
深入预训练、奖励模型与基于 RLHF 的 DPO 微调。
实现 Qwen 推理模型与多模态模型(如 Qwen2.5-VL)的定制化微调。
掌握 LLaMA-Factory 的 WebUI 与接口调用,实现可视化训练、评估与管理。
最终能够独立完成从数据准备到模型落地的全链路项目实战。
课程核心亮点
✅ 全本地化实战:覆盖模型部署、微调、评估与优化的完整闭环。
✅ 多场景覆盖:支持文本、推理、多模态模型的定制化训练。
✅ 工业化工具链:基于 LLaMA-Factory 与 vLLM,实现高效可复用的微调流程。
✅ 即学即用:提供从环境搭建到项目上手的全程指导,助力快速落地企业级应用。
适合人群
AI 工程师、算法研究员、全栈开发者,以及希望掌握本地化大模型定制能力的技术团队。
使用Olama、vllm部署和应用本地大模型(第一天)
ü Ollama简介
ü Ollama安装和常用参数配置
ü 管理本地大模型
ü huggingface简介和基本使用
ü Modelscope魔塔社区简介和基本使用
ü Vllm推理环境准备:租用算力服务器
ü 使用vllm实现模型推理
ü 使用vllm实现部署模型API服务(deepseek-r1、Qwen3、嵌入模型等)
ü 使用OpenAI来实现模型推理
ü 下载和安装OpenWebUI
ü 理解大模型原理基础
u 大模型是如何训练的?
u 理解注意力机制
u 理解Transformer架构
u 生成语言基础模型GPT
u 理解强化学习RLHF流程与思想
ü 什么是Fine-tuning模型微调
ü 微调的具体方法
ü 轻量化微调概念
ü 低秩适应微调LoRA工作原理
ü LoRA微调流程
ü 模型选择和微调数据需求
ü 评估微调后的模型能力
LLaMA-Factory微调基础(第二天)
ü LLaMA-Factory框架简介
ü 安装LLaMA-Factory框架并搭建微调环境
ü 基座模型下载:
ü 数据集准备:
u Identity.json认知数据集
u 下载和转换数据集(SFT)
u 理解alpaca、ShareGPT、OpenAI格式规范
ü 开始训练模型:什么是SFT、命令介绍、开始训练
ü 使用训练模型进行聊天测试
ü 理解模型训练之超参数调优
ü 动态合并模型
ü 模型评估:
u 通用能力评估
u NLG评估
u 自定义评估:使用余弦相似度,进行语义匹配
ü 导出LoRA模型
ü 将导出模型转成Ollama支持
ü 理解模型量化机制和量化方法
ü 实现模型微调量化
ü 实现模型导出量化
LLaMA-Factory微调进阶(第三天)
ü 理解和实现模型微调:预训练
u 准备预训练数据集
u 实现预训练
u 推理测试
ü LLaMA-Factory实现奖励模型微调
ü LLaMA-Factory基于RLHF
u 下载和整理数据集
u DPO微调、推理
u 模型评估和导出
ü 使用Qwen3实现推理模型SFT微调
u 下载Qwen3 推理模型
u 转换和准备推理模型数据集
u SFT微调实现、模型合并和推理测试
ü 理解多模态模型SFT实现
u Qwen2.5-VL-7B-Instruct 下载
u 构建基于多模态微调数据集(血清图片识别)
u 实现SFT微调
u 模型推理、评估和导出
ü LLaMA-Factory接口调用
ü 一站式webui board的使用:
u 模型配置、推理、训练、评估和导出