单选题(1–15)
- B — Sigmoid 的输出范围在 (0,1)。
- A — 过拟合:训练集好,测试集差。
- B — 学习率过大 → 震荡甚至不收敛。
- C — K-Means:分到最近的簇中心。
- B — 单位矩阵的行列式等于 1。
- B — 互斥:不能同时发生。
- C — 逻辑回归输出层用 Sigmoid。
- A — Tokenizer:文本转成 ID 序列。
- B — Softmax 常配合交叉熵。
- C — F1 分数结合 Precision 与 Recall。
- A — 0.6+0.5−0.3=0.8。
- A — 训练用小批统计,推理用移动平均。
- C — 自注意力复杂度 O(n2)。
- B — γ 大 → 决策边界复杂,过拟合风险上升。
- B — 期望 E[X]=1.1。
多选题(16–20)
- A, C — 回归常用损失:MSE、MAE。
- A, B, C — 增加数据、正则化、Early Stopping 都能缓解过拟合。
- A, B, C, D — 混淆矩阵可算 Precision、Recall、Accuracy、F1。
- A, B — 卷积和全连接是线性变换。
- A, C, D — RAG 正确流程:检索文块再生成;编码器不一致影响效果;re-ranking 能提升相关性。
单选题(1–15)
1. 下列哪一个激活函数的取值范围在 (0,1) 之间且处理标量?
{{ select(1) }}
- ReLU
- Sigmoid
- Tanh
- Softmax
2. 在机器学习中,“过拟合”通常表现为:
{{ select(2) }}
- 训练集表现很好,测试集表现差
- 训练集和测试集都表现差
- 训练集和测试集都表现很好
- 训练集表现差,测试集表现更差
3. 梯度下降中,学习率设置过大容易导致:
{{ select(3) }}
- 收敛更快更稳定
- 可能震荡甚至不收敛
- 结果一定更好
- 没有影响
4. 在 K-Means 算法中,样本被划到的簇是:
{{ select(4) }}
- 离簇中心最远的那个
- 随机分配
- 离簇中心最近的那个
- 与簇中心点积最大的那个
5. 设单位矩阵 I∈R3×3,它的行列式是:
{{ select(5) }}
6. 在概率论中,事件 A,B “互斥”的含义是:
{{ select(6) }}
7. 逻辑回归(用于二分类)输出层通常使用:
{{ select(7) }}
- ReLU
- Softmax
- Sigmoid
- Tanh
8. 在 NLP 中,Tokenizer 的主要作用是:
{{ select(8) }}
- 把文本分成整数 ID 序列
- 把文本翻译成英文
- 把文本翻译成中文
- 把文本直接转成浮点向量
9. 多类别分类里,Softmax 通常与哪种损失函数配合更常见?
{{ select(9) }}
- 均方误差(MSE)
- 交叉熵(Cross-Entropy)
- 绝对误差(MAE)
- Hinge 损失
10. 哪个指标同时综合了查准率(Precision)与召回率(Recall)?
{{ select(10) }}
- Accuracy
- ROC AUC
- F1 分数
- LogLoss
11. 已知 P(A)=0.6, P(B)=0.5, P(A∩B)=0.3,则 P(A∪B)=
{{ select(11) }}
- 0.8
- 0.9
- 1.1
- 0.3
12. Batch Normalization 在训练/推理阶段,均值与方差的来源分别是:
{{ select(12) }}
- 训练:小批统计;推理:移动平均统计
- 训练:全数据统计;推理:小批统计
- 训练/推理都用小批统计
- 训练/推理都用全数据统计
13. 自注意力(Self-Attention)在序列长度 n 下的时间/显存复杂度更接近:
{{ select(13) }}
- O(n) / O(n)
- O(nlogn) / O(n)
- O(n2) / O(n2)
- O(1) / O(1)
14. RBF 核的 SVM 中,增大 γ 一般会使:
{{ select(14) }}
- 决策边界更平滑、欠拟合风险上升
- 决策边界更复杂、过拟合风险上升
- 对模型无影响
- 等价于减小正则化强度 C
15. 离散型随机变量 X 的取值与概率为:$\mathbb{P}(X=0)=0.2,\ \mathbb{P}(X=1)=0.5,\ \mathbb{P}(X=2)=0.3$。则 E[X]=
{{ select(15) }}
- 0.8
- 1.1
- 1.5
- 2.0
多选题(16–20)
16. 回归任务中常见的损失函数有:
{{ multiselect(16) }}
- 均方误差(MSE)
- 交叉熵(Cross-Entropy)
- 绝对误差(MAE)
- Hinge 损失
17. 下列哪些做法有助于缓解过拟合?
{{ multiselect(17) }}
- 增加训练数据
- 使用正则化(如 L2、Dropout)
- 提前停止(Early Stopping)
- 大幅提高学习率
18. 混淆矩阵可以直接计算出的评价指标包括:
{{ multiselect(18) }}
- 精确率(Precision)
- 召回率(Recall)
- 准确率(Accuracy)
- F1 分数
19. 下列哪些操作属于线性变换(不含激活)?
{{ multiselect(19) }}
- 卷积层(Convolution)
- 全连接层(Linear/Dense)
- ReLU
- 最大池化(Max Pooling)
20. 关于 RAG(检索增强生成)的流程与工程实践,哪些说法正确?
{{ multiselect(20) }}
- 查询向量 → 向量检索相近文块 → 将原文文本与原查询一起交给模型生成答案
- 文档切分“一律使用极小窗口(如 32 token)”在多数场景都最优
- 若离线与在线采用不同编码器,向量空间不一致会影响检索效果
- 在向量检索后加入基于交叉编码器的重排(re-ranking)可进一步提升相关性