ML 面试的考察框架
Machine Learning 面试分为四个层次,不同公司和岗位的侧重点不同:
| 层次 | 考察内容 | 代表公司/岗位 | |------|----------|---------------| | 算法原理 | 模型数学推导、偏差-方差权衡、正则化 | 所有 ML 岗位 | | 编程实现 | 从零实现经典算法(NumPy)、调参 | Google、Meta、DeepMind | | 系统设计 | ML Pipeline 设计、特征工程、模型部署 | Senior DS、ML Engineer | | 产品分析 | 指标设计、A/B Test、业务影响评估 | Meta DS、Google DS |
UK 市场特点:英国的 ML 岗位(DeepMind、Waymo UK、Palantir London、Bloomberg)更注重算法原理和编程实现,系统设计的考察深度低于美国 Senior 岗位。对于应届毕业生,重点备考算法原理和基础编程实现即可。
核心算法原理考察点
线性模型:从线性回归到逻辑回归
面试中最高频的算法推导题:推导逻辑回归的梯度下降更新公式。
推导过程(这是面试官最想看到的):
逻辑回归的损失函数(Binary Cross-Entropy):
$$L = -\frac{1}{n}\sum_{i=1}^{n}[y_i \log(\hat{y}_i) + (1-y_i)\log(1-\hat{y}_i)]$$
其中 $\hat{y}_i = \sigma(w^T x_i) = \frac{1}{1+e^{-w^T x_i}}$
对权重 $w$ 求梯度:$\frac{\partial L}{\partial w} = \frac{1}{n}X^T(\hat{y} - y)$
梯度下降更新:$w \leftarrow w - \alpha \cdot \frac{1}{n}X^T(\hat{y} - y)$
关键考察点:为什么逻辑回归用 Cross-Entropy 而不是 MSE?(因为 MSE 在逻辑回归中是非凸函数,存在局部最优;Cross-Entropy 是凸函数,保证全局最优。)
树模型:Random Forest vs Gradient Boosting
面试高频对比题:
| 维度 | Random Forest | Gradient Boosting (XGBoost/LightGBM) | |------|---------------|--------------------------------------| | 集成方式 | Bagging(并行) | Boosting(串行) | | 偏差-方差 | 降低方差,偏差不变 | 同时降低偏差和方差 | | 过拟合风险 | 较低 | 较高(需要调参控制) | | 训练速度 | 快(可并行) | 慢(串行依赖) | | 缺失值处理 | 需要预处理 | 原生支持(XGBoost/LightGBM) | | 适用场景 | 特征重要性分析、快速基线 | Kaggle 竞赛、高精度需求 |
面试追问:XGBoost 和 LightGBM 的主要区别?(LightGBM 使用 Leaf-wise 生长策略,XGBoost 使用 Level-wise;LightGBM 在大数据集上速度更快,但更容易过拟合。)
ML 系统设计面试
ML 系统设计是 Senior DS 和 ML Engineer 面试的核心环节,考察候选人能否设计一个完整的、可落地的 ML 系统。
经典题目:设计一个推荐系统
面试官期望的回答框架:
- 第一步:明确问题定义
- 推荐目标是什么?(点击率 CTR、购买转化率、用户留存?)
- 推荐场景是什么?(首页推荐、搜索结果、相关商品?)
- 数据规模?(用户数、商品数、交互数据量)
- 延迟要求?(实时推荐 < 100ms,还是离线批量推荐?)
- 第二步:数据和特征设计
- 用户特征:人口统计学特征、历史行为序列、实时上下文
- 商品特征:类目、价格、历史 CTR、库存状态
- 交互特征:用户-商品交叉特征、协同过滤 Embedding
第三步:模型架构选择
| 阶段 | 模型 | 目标 | |------|------|------| | 召回(Recall) | 双塔模型(Two-Tower)、ANN 近似最近邻 | 从百万商品中快速召回 1000 个候选 | | 粗排(Pre-ranking) | 轻量级 MLP | 从 1000 个候选中筛选 100 个 | | 精排(Ranking) | Wide & Deep、DCN、DIN | 对 100 个候选精确排序 | | 重排(Re-ranking) | 规则 + 多样性约束 | 最终展示 10-20 个结果 |
- 第四步:离线评估和在线 A/B Test
- 离线指标:AUC、NDCG、Recall@K
- 在线指标:CTR、CVR、GMV、用户留存率
- A/B Test 设计:用户随机分桶、流量分配、显著性检验
- 第五步:系统架构和工程考量
- 特征存储:Redis(实时特征)+ Hive/Spark(离线特征)
- 模型服务:TensorFlow Serving / TorchServe
- 监控:数据漂移检测、模型性能监控、自动重训练
模型评估深度考察
模型评估是 DS 面试中最容易失分的环节,很多候选人只会说 Accuracy 和 AUC,无法深入讨论评估指标的选择逻辑。
分类模型评估
混淆矩阵的四个象限(必须能从业务角度解释):
| | 预测正 | 预测负 | |--|--------|--------| | 实际正 | TP(真正例) | FN(假负例,漏报) | | 实际负 | FP(假正例,误报) | TN(真负例) |
- 业务场景与指标选择:
- 欺诈检测:优先 Recall(宁可误报,不能漏报)
- 医疗诊断:优先 Precision(误报代价高)
- 推荐系统:用 NDCG、MAP(考虑排序质量)
- 不平衡数据集:用 F1-Score、PR-AUC(而非 ROC-AUC)
回归模型评估
| 指标 | 公式 | 优点 | 缺点 | |------|------|------|------| | MAE | 平均绝对误差 | 对异常值鲁棒 | 不可微分 | | MSE | 均方误差 | 可微分,数学性质好 | 对异常值敏感 | | RMSE | MSE 的平方根 | 与目标变量同量纲 | 对异常值敏感 | | MAPE | 平均绝对百分比误差 | 直观,可解释 | 目标值为 0 时无意义 | | R-squared | 决定系数 | 标准化,便于比较 | 随特征数增加而增大 |
AT&T Career Data Science Track 的 ML 备考支持
我们的 Tech Track(Data Science / ML 方向) 提供系统化的 ML 面试备考支持,包括:算法原理推导专项训练、ML 系统设计 Mock Interview、模型评估和 A/B Test 实战,以及 Google/Meta/DeepMind ML 岗位的完整面试模拟。我们的导师均来自 Bloomberg、DeepMind、Palantir 等顶级 AI 公司,能够提供最真实的 Insider 视角。如需了解详情,请访问 www.attcareer.com/tech 或扫描页面二维码联系我们。
常见问题 · FAQ
应届毕业生需要掌握 Transformer 和 LLM 吗?+
对于大多数 DS 岗位,不需要深入掌握 Transformer 架构。但了解基本概念(Attention Mechanism、Pre-training vs Fine-tuning)会加分。如果你申请的是 NLP 方向的 DS 岗位(如 Bloomberg NLP、Google Search),则需要深入掌握。
ML 系统设计面试需要写代码吗?+
通常不需要写完整代码,但需要能用伪代码或 Python 片段说明关键组件的实现思路。面试官更看重你的系统思维和权衡能力,而不是代码细节。
UK 的 ML 岗位和美国有什么薪资差异?+
UK ML 岗位的薪资普遍低于美国,但高于 UK 其他行业。应届 ML Engineer 在 UK 科技公司的薪资约为 £50-70k,在 DeepMind/Waymo 等顶级 AI 公司可达 £80-100k+。相比之下,美国 FAANG 的 ML Engineer 应届薪资约为 $150-200k(含 RSU)。
Free Resource
免费领取【Tech 求职全套资料包】
包含 CV 模板、面试题库、Networking 模板信及完整的求职 Timeline。已有 1,200+ 学员领取。

