卡码笔记-最强八股文
首页
计算机基础
C++
Java
Go
🔥大模型🔥
  • 大模型面经
  • Java面经
  • C++面经
简历专栏
代码随想录 (opens new window)
首页
计算机基础
C++
Java
Go
🔥大模型🔥
  • 大模型面经
  • Java面经
  • C++面经
简历专栏
代码随想录 (opens new window)
  • 本栏必读

    • 卡码简历专栏介绍
  • 大模型简历

    • 大模型简历怎么写?
    • 算法岗、LLM应用岗、开发+LLM投哪个
    • 技能栏别堆热词,分层写法附模板
    • 项目经历3种烂写法,附修改对比
    • 四要素写法详解:项目描述、工作、难点、收获
    • RAG项目怎么写出技术深度
    • Agent项目怎么写:不只是调用了工具
    • 微调项目怎么写:SFT/RLHF/LoRA怎么量化
      • 微调项目,面试官到底想看什么
      • 微调项目的三个技术深度维度
      • 完整反面/正面对比
      • 投算法岗和投应用岗,微调简历写法不同
      • 微调项目常见的3个坑
    • 从Java/Go转型AI,社招简历怎么写
    • 应届生大模型简历:没工作经验怎么写
    • 简历"难点"怎么挖:10个典型难点示例
    • 量化指标怎么写:延迟/成本/准确率全解
    • 简历点评:校招大模型简历问题出在哪
    • 简历点评:社招3年转型AI差在哪里
    • 一张图看懂大模型岗位简历写法
  • Java简历

  • C++简历

  • Go简历

  • 测开简历

  • 前端简历

# 大模型微调项目简历怎么写?SFT、RLHF、LoRA怎么量化指标,别再写"对模型做了微调"

微调项目在简历上最常见的写法:

  • 对Llama3-8B模型进行了LoRA微调

就这一句,完了。

面试官看完就一个想法:微调了个啥?数据怎么构造的?rank设的多少?效果提升多少?跟基线对比了吗?

什么都没有,等于没做。

微调项目不管是投算法岗还是LLM应用岗,指标就是命。没有指标的微调项目,面试官没法判断你做的东西有没有价值。

今天讲微调项目简历怎么写出技术深度。

# 微调项目,面试官到底想看什么

面试官看微调项目,和看RAG/Agent项目的角度不一样。RAG/Agent看重的是工程化能力,微调项目看重的是实验设计和结果分析能力。

具体来说,三件事:

  1. 你的训练数据怎么来的? 多少条?怎么构造的?质量怎么保证?数据决定了微调的上限。
  2. 你的超参怎么调的? LoRA rank设多少?为什么?学习率多少?训练几个epoch?这些选择背后要有理由。
  3. 你的效果怎么评估的? 用什么指标?BLEU/ROUGE还是人工评测?和基线对比提升多少?没有对比的指标没有意义。

微调简历的核心不是"我微调了",是"我微调了什么、怎么微调的、效果怎么样、怎么评估的"。

# 微调项目的三个技术深度维度

# 维度一:训练数据

训练数据是微调项目最重要的一环,但简历上几乎没人写。

反面:

  • 对Llama3-8B模型进行了LoRA微调

面试官:数据哪来的?多少条?怎么清洗的?怎么保证质量的?

正面:

  • 构造5000条SFT训练数据(医疗问答场景),经数据清洗、去重、多样性筛选,有效数据占比从62%提升至89%

或者:

  • 基于人工标注+GPT-4辅助生成构造3000条指令微调数据,覆盖5类任务场景,经质量筛选保留率72%

训练数据这一条,直接决定了面试官对你微调项目的信任度。你说"微调了",面试官默认你是跑了个开源数据集。你说"构造了XX条数据,做了XX质量保证",面试官才知道你是真的做过。

# 维度二:超参与训练细节

超参选择体现你对微调过程的理解。

反面:

  • 使用LoRA微调7B模型

面试官:rank设多少?为什么?训练多久?几张卡?

正面:

  • LoRA微调Qwen2-7B,rank=16、alpha=32、目标模块q_proj+v_proj,4xA100训练2小时,loss从2.1收敛至0.3

或者更简练:

  • 采用QLoRA(4bit量化+LoRA rank=32)微调7B模型,单卡4090即可训练,显存占用从48GB降至12GB

区别在哪?左边只说了"用了LoRA",右边说了参数怎么设的、用了什么资源、效果如何。面试官一看就知道你真的动手训过,不是纸上谈兵。

# 维度三:评测与对比

这是微调简历最重要的部分,也是最容易被忽略的。

没有评测的微调项目,等于没有做完。

反面:

  • 微调后模型效果提升

面试官:提升了多少?和什么对比?用什么指标?

正面:

  • 微调模型在医疗问答任务上BLEU提升15%(基线12.3→微调后14.1),人工评测准确率从71%提升至86%

或者:

  • SFT后模型输出格式合规率从58%提升至94%,RLHF对齐后有害输出率从8.2%降至0.7%

关键:要有基线、有对比、有指标。 "提升了"三个字没有任何信息量。

# 完整反面/正面对比

反面:

医疗大模型微调项目

  • 对Llama3-8B进行了LoRA微调
  • 使用了SFT和RLHF
  • 模型效果有所提升

正面:

基于Qwen2-7B的医疗问答微调系统,面向中文医疗知识问答场景,通过SFT+DPO对齐提升领域回答质量

个人工作:

  • 构造5000条SFT训练数据,经数据清洗、去重、多样性筛选,有效数据占比从62%提升至89%
  • 采用QLoRA(4bit量化+rank=32)微调7B模型,单卡4090即可训练,显存占用从48GB降至12GB
  • SFT后在医疗问答任务上BLEU提升15%,人工评测准确率从71%提升至86%
  • DPO对齐后有害输出率从8.2%降至0.7%,输出格式合规率从58%提升至94%

项目难点:

  • 训练数据质量参差不齐,引入GPT-4辅助标注+人工复核,标注一致性从65%提升至88%
  • LoRA rank选择:rank=8欠拟合、rank=64过拟合,rank=32在效果和效率间取得平衡

个人收获:

  • 掌握了SFT+DPO微调全流程,积累了训练数据构造与超参调优经验
  • 理解了微调与RAG的选型边界:数据量足够且任务固定时微调更优,知识频繁更新时RAG更灵活

# 投算法岗和投应用岗,微调简历写法不同

投算法岗:微调是你的核心能力,要写得最详细。数据构造、超参调优、评测体系、对比实验,每个环节都要有。面试官会往深了问,你得经得住。

投LLM应用岗:微调是你的选型判断能力,不需要写那么细。重点写"什么时候该微调、什么时候该RAG"这种选型决策,微调细节点到为止。

举个例子,投LLM应用岗的技能栏写"了解大模型微调流程(SFT/LoRA),理解微调与RAG的选型边界"就够了,项目经历里微调部分写2-3条就行。

# 微调项目常见的3个坑

1、"微调后效果提升"但没有指标

这是最致命的。没有数字,面试官没法判断你做的东西有没有价值。BLEU、ROUGE、准确率、人工评测通过率——总有一个你能给的。给不了精确值,给估算值也行:"准确率提升约15%"比"效果提升"强100倍。

2、只写了SFT/RLHF/LoRA的名字,没写具体做了什么

"使用了SFT"等于没写。SFT你训了什么数据?多少条?"使用了LoRA"等于没写。rank设多少?为什么?面试官要的是你的决策过程,不是技术名词列表。

3、没有基线对比

"微调后BLEU达到14.1"——这个数字高还是低?没有基线,面试官不知道。加上"基线12.3→微调后14.1",立刻有说服力。

微调项目简历的核心:指标就是命。没有指标的微调,等于没做。

下一篇讲从Java/Go转型AI方向,社招简历怎么写。

Last Updated: 4/21/2026, 7:24:18 PM

← Agent项目怎么写:不只是调用了工具 从Java/Go转型AI,社招简历怎么写 →

评论

验证登录状态...

侧边栏
夜间
卡码简历
代码随想录
卡码投递表🔥
2026群
添加客服微信 PS:通过微信后,请发送姓名-学校-年级-2026实习/校招
支持卡码笔记
鼓励/支持/赞赏Carl
1. 如果感觉本站对你很有帮助,也可以请Carl喝杯奶茶,金额大小不重要,心意已经收下
2. 希望大家都能梦想成真,有好的前程,加油💪