#P3870. 第1题-选择题

    ID: 3234 Tried: 75 Accepted: 10 Difficulty: 4 所属公司 : 华为 时间 :2025年10月10日(留学生)-AI岗
      算法标签>选择题

第1题-选择题

一、单选题

1、一个三状态马尔科夫链的转移矩阵为 $\left[\begin{array}{ccc}0.1 & 0.9 & 0 \\0 & 0.2 & 0.8 \\0.5 & 0 & 0.5\end{array}\right]$ 从状态2出发,两步到达状态3的概率是() {{ select(1) }}

  • 0.40.4
  • 0.640.64
  • 0.160.16
  • 0.560.56

2、设序列输入长度为 s=256s=256,隐藏层维度 d=1024d=1024,注意力头数 h=16h=16,则多头注意力中 QKYQKY 投影的总参数量为 {{ select(2) }}

  • 3sdh3*s*d*h
  • ddhd*d*h
  • 3ddh3*d*d*h
  • 3dd3*d*d

3、设 AAnn 阶矩阵 (n22)(n≥22),且 A=4|A|=4,则 (A)=()|(A*)*|=()

注:AA* 表示矩阵 AA 的伴随矩阵(也称为余子矩阵的转置),有 AA=AA=AlAA*=A*A=|A|l {{ select(3) }}

  • 4n14^{n-1}
  • 4n4^{n}
  • 4(n1)2{4^{(n-1)}}^2
  • 4(n)2{4^{(n)}}^2

4、对点 (x,P(x))(x,P(x))∈{(0,1),(1,3),(3,9)(0,1),(1,3),(3,9)} 用拉格朗日法构造插值函数 P(x)P(x),则 P(2)P(2) 的值为

提示:拉格朗日插值多项式为 pk(x)=Πixx1xkx1p_{k}(x)=\Pi_{i} \frac{x-x_{1}}{x_{k}-x_{1}} {{ select(4) }}

  • 66
  • P(x)P(x) 的取值不唯一
  • 173\frac{17}{3}
  • 377\frac{37}{7}

5、在神经网络中,以下激活函数可以缓解梯度消失同题,并且在隐藏层中被广泛便用? {{ select(5) }}

  • 阶跃函数
  • ReLuReLu
  • SigmoidSigmoid
  • TanhTanh

6、某工厂生产的产品次品率为 0.050.05,质检员随机抽查一件产品,发现是次品,已知质检员检测次品的正确率为 0.980.98 ,检测出次品的正确率为 0.990.99 。产品实际为次品的概率是多少? {{ select(6) }}

  • 0.9120.912
  • 0.8380.838
  • 0.9320.932
  • 0.8670.867

7、关于线性回归算法的下列说法中,哪一项是正确的? {{ select(7) }}

  • 岭回归 (RidgeRidge RegressionRegression) 在损失函数中引入 L1L1 正则项,可将部分系数压编至零,从而实现特征选择。
  • 普通最小二乘法 (OLS)(OLS) 通过最小化残差的绝对值之和来估计参数,该问题存在闭式解,可通过矩阵运算直接求解。
  • 多重共线性会导致特征之间高度线性相关,虽然模型在训练集上的预测精度可能仍然较高,但会显著增大回归系数的方案。
  • 线性回归的 R2R^2 值越高,表明模型对新样本的预测能力越强;因此,应尽可能通过增加特征来提升 R2R^2 ,从而提高模型泛化性能。

8、抛掷两枚均匀硬币,事件 AA 为“至少一枚硬币正面”,事件 BB 为“两枚硬币都是正面”,那么 P(BA)P(B丨A) {{ select(8) }}

  • 13\frac{1}{3}
  • 14\frac{1}{4}
  • 12\frac{1}{2}
  • 34\frac{3}{4}

9、对于 3×224×2243×224×224 输入,卷积核 7×7stride=2padding=3out7×7、stride=2、padding=3、out_channeis=64channeis=64 输出特征图的空间尺寸为 {{ select(9) }}

  • 128×128128×128
  • 112×112112×112
  • 256×256256×256
  • 224×224224×224

10、若词表大小为 50k50k,输入序列长度为 512512EmbeddingEmbedding 层维度为 768768 ,则 EmbeddingEmbedding 参数量为 {{ select(10) }}

  • 512×768512×768
  • 50k×76850k×768
  • 50k×51250k×512
  • 50k+76850k+768

11、若输入维度 d=768d=768FFNFFN 中间层维度为 30723072 ,则 FFNFFN 的参数量为 {{ select(11) }}

  • 276830722*768*3072
  • 7683072768*3072
  • 7683072+3072768768*3072+3072*768
  • (7683072+3072)+(3072768+768)(768*3072+3072)+(3072*768+768)

12、在高斯混合模型 (GMM)(GMM) 中,EMEM 算法的 EE 步主要计算:

{{ select(12) }}

  • 后验概率
  • 先验概率
  • 参数更新
  • 特征函数

13、已知 x=1.250±0.040,y=8.000±0.200x=1.250±0.040,y=8.000±0.200,计算:z=xyz=xy 的绝对误差限。 {{ select(13) }}

  • 0.5780.578
  • 0.5620.562
  • 0.5600.560
  • 0.5700.570

14、矩阵 $A=\left[\begin{array}{ccc}4 & 1 \\1 & 4 \end{array}\right]$ 的特征值是() {{ select(14) }}

  • 3355
  • 4444
  • 0088
  • 2266

15、某工厂两条生产线 AA (合格率 9090 %,产量 6060 %)和 BB (合格率 8080%,产量 4040%)。随机抽取一件不合格品,其来自 AA 线的概率为? {{ select(15) }}

  • 3/73/7
  • 4/74/7
  • 6/7 6/7
  • 5/7 5/7

二、多选题

16、关于大模型的文本语义相似度计算,下列说法正确的是 {{ multiselect(16) }}

  • 可通过计算两文本的嵌入向量 (Embedding)(Embedding) 余弦相似度实现
  • 所有大模型的嵌入向量维度必须统一才能计算相似度
  • 微调时增加同义句对数据可提升相似度计算精度
  • 模型对语义相似但表达方式差异大的文本识别能力有限

17、在随机森林 (Random(Random Forest)Forest) 中,以下哪些策路可以提高模型的泛化能力? {{ multiselect(17) }}

  • 使用 BaggingBagging 方法
  • 增加特征随机选择的维度 (max(max_features)features)
  • 降低每棵树的深度 (max(max_depth)depth)
  • 增加树的数量 (n(n_estimators)estimators)

18、对实矩阵 XRn×dX \in \mathbb{R}^{n \times d} 的奇异值分解 X=UΣVTX=UΣV^T,下列说法正确的是: {{ multiselect(18) }}

  • UU 的前 r(=col(X))r(= col(X)) 列向量给出了 XX 列空间的一组正交基
  • UVU、V 均为正交矩阵
  • ΣΣ 的对角元素按非递增顺序排列
  • rank(X)rank(X) 等于 ΣΣ 的非零对角元素个数
  • ΣΣ 的非零奇异值等于 XXTXX^T 的非零特征值的平方根

19、以下哪些算法属于无监督学习? {{ multiselect(19) }}

  • 随机森林
  • 主成分分析 (PCA)(PCA)
  • 高斯混合模型 (GMM)(GMM)
  • KMeansK-Means

20、以下关于最大似然估计 (MLE)(MLE) 的说法中,些是正确的? {{ multiselect(20) }}

  • MLEMLE 能保证估计量是无偏的。
  • MLEMLE 的估计量可能不是唯一解。
  • MLEMLE 通常要求样本数据是独立同分布的
  • MLEMLE 可以通过数值优化方法求解复杂模型的参数