# 大模型微调项目简历怎么写?SFT、RLHF、LoRA怎么量化指标,别再写"对模型做了微调"
微调项目在简历上最常见的写法:
- 对Llama3-8B模型进行了LoRA微调
就这一句,完了。
面试官看完就一个想法:微调了个啥?数据怎么构造的?rank设的多少?效果提升多少?跟基线对比了吗?
什么都没有,等于没做。
微调项目不管是投算法岗还是LLM应用岗,指标就是命。没有指标的微调项目,面试官没法判断你做的东西有没有价值。
今天讲微调项目简历怎么写出技术深度。
# 微调项目,面试官到底想看什么
面试官看微调项目,和看RAG/Agent项目的角度不一样。RAG/Agent看重的是工程化能力,微调项目看重的是实验设计和结果分析能力。
具体来说,三件事:
- 你的训练数据怎么来的? 多少条?怎么构造的?质量怎么保证?数据决定了微调的上限。
- 你的超参怎么调的? LoRA rank设多少?为什么?学习率多少?训练几个epoch?这些选择背后要有理由。
- 你的效果怎么评估的? 用什么指标?BLEU/ROUGE还是人工评测?和基线对比提升多少?没有对比的指标没有意义。
微调简历的核心不是"我微调了",是"我微调了什么、怎么微调的、效果怎么样、怎么评估的"。
# 微调项目的三个技术深度维度
# 维度一:训练数据
训练数据是微调项目最重要的一环,但简历上几乎没人写。
反面:
- 对Llama3-8B模型进行了LoRA微调
面试官:数据哪来的?多少条?怎么清洗的?怎么保证质量的?
正面:
- 构造5000条SFT训练数据(医疗问答场景),经数据清洗、去重、多样性筛选,有效数据占比从62%提升至89%
或者:
- 基于人工标注+GPT-4辅助生成构造3000条指令微调数据,覆盖5类任务场景,经质量筛选保留率72%
训练数据这一条,直接决定了面试官对你微调项目的信任度。你说"微调了",面试官默认你是跑了个开源数据集。你说"构造了XX条数据,做了XX质量保证",面试官才知道你是真的做过。
# 维度二:超参与训练细节
超参选择体现你对微调过程的理解。
反面:
- 使用LoRA微调7B模型
面试官:rank设多少?为什么?训练多久?几张卡?
正面:
- LoRA微调Qwen2-7B,rank=16、alpha=32、目标模块q_proj+v_proj,4xA100训练2小时,loss从2.1收敛至0.3
或者更简练:
- 采用QLoRA(4bit量化+LoRA rank=32)微调7B模型,单卡4090即可训练,显存占用从48GB降至12GB
区别在哪?左边只说了"用了LoRA",右边说了参数怎么设的、用了什么资源、效果如何。面试官一看就知道你真的动手训过,不是纸上谈兵。
# 维度三:评测与对比
这是微调简历最重要的部分,也是最容易被忽略的。
没有评测的微调项目,等于没有做完。
反面:
- 微调后模型效果提升
面试官:提升了多少?和什么对比?用什么指标?
正面:
- 微调模型在医疗问答任务上BLEU提升15%(基线12.3→微调后14.1),人工评测准确率从71%提升至86%
或者:
- SFT后模型输出格式合规率从58%提升至94%,RLHF对齐后有害输出率从8.2%降至0.7%
关键:要有基线、有对比、有指标。 "提升了"三个字没有任何信息量。
# 完整反面/正面对比
反面:
医疗大模型微调项目
- 对Llama3-8B进行了LoRA微调
- 使用了SFT和RLHF
- 模型效果有所提升
正面:
基于Qwen2-7B的医疗问答微调系统,面向中文医疗知识问答场景,通过SFT+DPO对齐提升领域回答质量
个人工作:
- 构造5000条SFT训练数据,经数据清洗、去重、多样性筛选,有效数据占比从62%提升至89%
- 采用QLoRA(4bit量化+rank=32)微调7B模型,单卡4090即可训练,显存占用从48GB降至12GB
- SFT后在医疗问答任务上BLEU提升15%,人工评测准确率从71%提升至86%
- DPO对齐后有害输出率从8.2%降至0.7%,输出格式合规率从58%提升至94%
项目难点:
- 训练数据质量参差不齐,引入GPT-4辅助标注+人工复核,标注一致性从65%提升至88%
- LoRA rank选择:rank=8欠拟合、rank=64过拟合,rank=32在效果和效率间取得平衡
个人收获:
- 掌握了SFT+DPO微调全流程,积累了训练数据构造与超参调优经验
- 理解了微调与RAG的选型边界:数据量足够且任务固定时微调更优,知识频繁更新时RAG更灵活
# 投算法岗和投应用岗,微调简历写法不同
投算法岗:微调是你的核心能力,要写得最详细。数据构造、超参调优、评测体系、对比实验,每个环节都要有。面试官会往深了问,你得经得住。
投LLM应用岗:微调是你的选型判断能力,不需要写那么细。重点写"什么时候该微调、什么时候该RAG"这种选型决策,微调细节点到为止。
举个例子,投LLM应用岗的技能栏写"了解大模型微调流程(SFT/LoRA),理解微调与RAG的选型边界"就够了,项目经历里微调部分写2-3条就行。
# 微调项目常见的3个坑
1、"微调后效果提升"但没有指标
这是最致命的。没有数字,面试官没法判断你做的东西有没有价值。BLEU、ROUGE、准确率、人工评测通过率——总有一个你能给的。给不了精确值,给估算值也行:"准确率提升约15%"比"效果提升"强100倍。
2、只写了SFT/RLHF/LoRA的名字,没写具体做了什么
"使用了SFT"等于没写。SFT你训了什么数据?多少条?"使用了LoRA"等于没写。rank设多少?为什么?面试官要的是你的决策过程,不是技术名词列表。
3、没有基线对比
"微调后BLEU达到14.1"——这个数字高还是低?没有基线,面试官不知道。加上"基线12.3→微调后14.1",立刻有说服力。
微调项目简历的核心:指标就是命。没有指标的微调,等于没做。
下一篇讲从Java/Go转型AI方向,社招简历怎么写。
评论
验证登录状态...