跳到主要内容

微调基础与常见范式(小白友好版)

目录

微调到底是什么

微调(Fine-tuning)可以理解成“在通用模型基础上做定向训练,让它更擅长你的场景”。
和 Prompt 不同,微调会改变模型参数,因此会对风格、格式稳定性、任务表现产生长期影响。

一个直观例子:

  • 只用 Prompt:每次都要写很长规则,输出仍可能不稳定
  • 做过微调:模型天然更懂你的任务模板,提示词可更短,结果更稳

什么时候应该微调

一般建议满足以下条件再考虑微调:

  • 任务固定且重复(如客服分类、结构化抽取)
  • 你有一定规模高质量标注数据
  • Prompt 与工作流优化已经做到一定水平

如果任务变化快、数据少、预算紧,通常先用 Prompt + RAG 更划算。

常见微调范式对比

  • SFT(监督微调):最常见,使用输入-输出样本训练
  • LoRA/PEFT:参数高效微调,成本更低,适合多数团队
  • 全量微调:资源消耗最大,通常是大厂或特定高价值场景

微调项目全流程

微调后的前端适配重点

  • 输出格式可能更稳定:可减少前端兜底复杂度
  • 响应延迟可能变化:要重新测 TTFT 和总耗时
  • 版本切换要可回滚:前端保留模型版本可见性