大模型风口来袭!小白程序员必看面经总结,收藏这份求职攻略
2026/4/30 11:05:58 网站建设 项目流程

本文作者分享了从国企跳槽至互联网大厂的经历,重点介绍了大模型岗位的面试经验。内容涵盖简历准备、面试问题(如SFT、RAG、Agent、Deepseek & Qwen3 & RL、大模型基础等)、代码题以及业务方向。作者强调了持续学习和追踪前沿技术的重要性,并提供了实用的面试技巧和参考资料,适合想要进入大模型领域的小白和程序员参考。

1、职业规划

在国企工作即将六年的我,终于下定决心走出来。

每当 HR 面问到我跳槽的原因,我总是机械地回答两个点,一是平台、技术、项目深度没有发展空间,二是薪资。

但当我扪心自问时,离开国企我会失去什么?

我会失去工作的相对稳定性,也会失去这悠闲一些的工作节奏,近些年的一些降薪、工作时长改变和业绩指标改革,也让我觉得国企并不一定是铁饭碗,变革时刻在进行,身如孤船在国企这片大海只能随波逐流,不受个人意志所改变。

性格使然,太过闲散的工作对我是种折磨,在无聊中寻找乐趣简直太难受了。国企也如温水煮青蛙,不进行自我驱动的学习和改变,心气都将被消磨殆尽。

这些年也尝试过一些副业的想法,只收获了一些编程能力的锻炼,随着市场的不景气,收入也逐渐归零。投身股市,自认没有这个本领和抗风险能力。

所以,我还是选择出来看看。既希望进去大模型的风口一搏,也有中年危机的步步紧逼。但人生嘛,重在体验。

2、面经总结

一堆废话感想略过,直接上干货。相对于去年看机会的浅尝辄止,拿了几个中厂 offer,今年目标更新为互联网大厂。

1、简历关

今年大模型的行情还不错,凭借本硕学历+国企背景,除了预训练的岗位约不到面试外,各个大中厂过简历毫无问题。

简历内容说实话,没什么发挥空间,保证写上去的所有内容都如数家珍即可,我也没有针对不同厂修改过不同简历。

但是可以随着面试节奏和问题热点,补充你的简历内容,比如一开始 Agent 我做的比较浅就没写,但是问的很多+热门,后续我把这块也进行了补充,这样 Agent 的一些岗位也都可以有面试。

2、面试问题

基本以项目细节拷打+穿插大模型八股+代码考察为主,我总结了不同项目遇到的一些常见考察点和自己浅薄的思考,供大家参考。

(1)SFT

各种微调技术原理(高频):基本以 LoRA 考察为主,包括作用原理、初始化方法、参数、其他变种等。

原理可以从增量权重矩阵的本征维度出发,解析解 SVD 的不可行性,从而引出秩 r 作为超参+模型学习的方法;

初始化方法是 AB 之一全 0 初始化,并可以介绍 LoRA-GA 和 LoRA-Pro 的方法(一般面试官对初始化的变种了解不深);参数有 alpha 和 r;其他变种问的频率较低。

如何评估微调效果?通用能力+生成能力+人工。

通用能力是否下降?通用数据集测评,解决方法?训练集加入通用数据集,更换不同 size 基模,全参微调。

幻觉?从欠拟合和过拟合的角度分析,有尝试过自动化识别幻觉的方法吗?RAG+LLM 评估。

(2)RAG

Retrival

检索源:数据的收集、清洗,可说的内容不多。

索引优化:

  • 分块策略:固定、overlap、递归分割、small2big 等方法,从句子和语义截断的思路分析优缺点
  • chunk的原数据附加:源文档提取,人工构造(反向 HyDE,上下文编码)
  • 查询优化:HyDE 等方法

向量数据库:选型,如何更新数据,问的很少。

Embedding:

  • BM25+Embedding 混合检索:BM25 的原理,为什么有效果(统计词频 TF-IDF 角度)
  • 使用的 Embedding model 原理(M3E,XiaoBu,BGE 等):三类任务的 InfoNCE+CoSENT 混合损失训练,其他对比损失介绍
  • MRL:混合动态维度,问的很少

Generation

如下:

  • Reranker Model(mMARCO/MiniCPM/Jina 等):原理,为什么需要重排(从原始语义空间的信息完整性出发),和 Embedding 区别,效果有提升吗?
  • LLM SFT。

评估指标

如下:

  • Embedding model:Recall
  • ReRanker modell:MRR、NDCG
  • End-to-End:Accuracy(LLM 基于 query、ground truth 和生成 answer 评估)

(3)Agent

如下:

  • ReAct prompt 的构造方法:prompt 构造 CoT,我做的比较早,并写在简历上了,所以会问。
  • Function call 怎么训练的:Function call 数据集 SFT+强化学习
  • MCP:比较新,可以体现对前沿技术的追踪和理解
  • Agent 一些成熟框架:我做的比较浅,没怎么用过

(4)Deepseek & Qwen3 & RL

这块单独拿出来说,问的太多了,考察对新技术的追踪和掌握。

R1/Qwen3 预训练和后训练方法:参考相关技术报告,三/四阶段训练,由于我不做 pretraining 方向,所以基本能回答上各阶段方法和目标即可。

MLA:参考苏神《缓存与效果的极限拉扯:从 MHA、MQA、GQA 到 MLA》。

MoE:参考苏神《MoE 环游记:1、从几何意义出发》。

PPO/DPO/GRPO:原理+公式,GRPO 的改进点和如何实现,大部分面试官的关注点到这结束,个别的会问到 critic model 损失和训练方法,如何理解未来收益。

(5)大模型基础

Transformer 及其进化:

  • Encoder-Decoder 架构介绍
  • Positional Encoding:参考苏神《让研究人员绞尽脑汁的 Transformer 位置编码》,RoPE 问的不少
  • Tokenizer:WordPiece、BPE,问的不多
  • Attention(高频):还是常规问题,公式、除以 √dk 原因(方差一致+梯度消失)
  • MHA:动机,不同语义子空间和不同位置提取信息,MQA、GQA、MLA 变种,参考上文
  • Normalization:LayerNorm 和 BatchNorm 区别(维度意义+分布假设),具体实现,为什么需要 gamma 和 beta 参数
  • FFN:为什么需要,Attention 捕捉序列内部,FFN 增强单个位置的特征表达
  • Activation Function:介绍几种,ReLU、GELU、GLU、Swish、SwiGLU 等掌握几种即可
  • Optimizer:基本没人问

BERT:

  • 预训练任务:MLM+NSP
  • 变种基本没人问了

Decoder-only:泛化性+注意力退化+KV cache+轨迹依赖。

多轮对话训练:损失如何计算,只计算最后一轮回答。

梯度消失(链式法则和激活函数特性):更换激活函数、归一化、残差、权重初始化。

怎么处理长文本:RoPE+bias+长上下文预训练。

二分类、多分类的损失函数和评估指标:交叉熵,查准、召回、F1。

计网基础:点击 url 到网页渲染过程发生了什么?get post 区别和其他 HTTP 方法?只有抖音二面问到了,一脸懵,给我搞成 web 开发了…

(6)代码题

统计看来动态规划考察最多,绝大多数集中在 Leetcode 中等难度:

  • 美团:编辑距离、层次遍历、删除倒数第 n 个节点、平方根
  • 快手:最长递增子序列、旋转数组最小值(有无重复)
  • 滴滴:最少平方数、最长无重复子串
  • 拼多多:最长特殊子序列
  • 携程:最长无重复子串
  • 阿里云:分词最大概率乘积、层次遍历变种
  • 抖音:跳跃一次的最大连续子数组和
  • 作业帮:最长 fib 子序列
  • 腾讯:中序后序重建二叉树
  • 百度:旋转数组查找,两个栈实现队列,最长公共子数组
  • 蚂蚁:ip 寻址

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。


对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

👇👇扫码免费领取全部内容👇👇

1、大模型学习路线

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

4、AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5、面试试题/经验

【大厂 AI 岗位面经分享(107 道)】

【AI 大模型面试真题(102 道)】

【LLMs 面试真题(97 道)】

6、大模型项目实战&配套源码

适用人群

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询