微调基础与常见范式(小白友好版)
目录
微调到底是什么
微调(Fine-tuning)可以理解成“在通用模型基础上做定向训练,让它更擅长你的场景”。
和 Prompt 不同,微调会改变模型参数,因此会对风格、格式稳定性、任务表现产生长期影响。
一个直观例子:
- 只用 Prompt:每次都要写很长规则,输出仍可能不稳定
- 做过微调:模型天然更懂你的任务模板,提示词可更短,结果更稳
什么时候应该微调
一般建议满足以下条件再考虑微调:
- 任务固定且重复(如客服分类、结构化抽取)
- 你有一定规模高质量标注数据
- Prompt 与工作流优化已经做到一定水平
如果任务变化快、数据少、预算紧,通常先用 Prompt + RAG 更划算。
常见微调范式对比
- SFT(监督微调):最常见,使用输入-输出样本训练
- LoRA/PEFT:参数高效微调,成本更低,适合多数团队
- 全量微调:资源消耗最大,通常是大厂或特定高价值场景
微调项目全流程
微调后的前端适配重点
- 输出格式可能更稳定:可减少前端兜底复杂度
- 响应延迟可能变化:要重新测 TTFT 和总耗时
- 版本切换要可回滚:前端保留模型版本可见性