#P0009. 客观题测试

客观题测试

单选题

1.1.下面这段代码执行的功能是什么?

1. function forward(x, W,b):
2.   logits = Wx+b
3.   exp_values = exp(logits)
4. return exp_values / sum(exp_values)

{{ select(1) }}

  • 全连接层+SigmoidSigmoid激活
  • 全连接层+全局池化操作
  • 全连接层+SoftmaxSoftmax激活
  • 全连接层+均值池化操作

2.TransformerTransformer中位置编码的主要作用是? {{ select(2) }}

  • 归一化输入
  • 引入序列顺序信息
  • 增加非线性
  • 减少计算量

3、线性方程组: $\left\{\begin{matrix} 4x+y=6 \\ x+3y=3 \end{matrix}\right. $

初始解(x0,y0)=(0,0) (x_0,y_0) = (0,0),进行一次 JacobiJacobi迭代后,(x1,y1)(x_1,y_1) 是: {{ select(3) }}

  • (0,0)(0,0)
  • (2,0.5)(2,0.5)
  • (1,1)(1,1)
  • (1.5,1) (1.5,1)

4、关于大模型的"幻觉”(HallucinationHallucination)现象,下列说法错误的是 {{ select(4) }}

  • 模糊或复杂的提示词输入可能导致幻觉
  • 指模型生成看似合理但与事实不符的内容
  • 增加训练数据的多样性可以完全消除幻觉
  • DD.检索增强生成(RAG)(RAG)技术可缓解幻觉问题

5、已知矩阵AA33阶不可逆矩阵,α1,α2\alpha_1,\alpha_2是齐次线性方程Ax=0组Ax=0的基础解系,α3\alpha_3是矩阵AA属于特征值入λ=2\lambda=2的特征向量,则不是矩阵特征向量的是() {{ select(5) }}

  • α1+2α2\alpha_1+2\alpha_2
  • 5α3-5\alpha3
  • 3α14α2 3\alpha_1-4\alpha_2
  • 2α1+α3 2\alpha_1+\alpha_3

6、在KmeansKmeans算法(采用欧式距离)中,存在44个簇,簇C1C1的中心为[1,1][1,1],簇C2C2的中心为[1,1][1,-1],簇C3C3的中心为[1,1][-1,-1],簇C4C4的中心为[1,1][-1,1],则样本[2,2][2,-2]属于 {{ select(6) }}

  • C3簇C3
  • C1C1
  • C2C2
  • C4C4

7、矩阵 $A= \begin{bmatrix} {1} & {2}&{3} \\ {4} & {5} &{6}\\{7}& {8}& {9} \end{bmatrix}$的零空间维度是? {{ select(7) }}

  • 1 1
  • 2 2
  • 00
  • 33

8、对于一个n×nn×n的实对称矩阵AA,以下哪个说法是正确的? {{ select(8) }}

  • AA 的特征值一定都是实数
  • AA 的奇异值一定都是复数
  • AA 不能进行 QRQR分解
  • AA 一定可以进行LULU分解

9、关于奇异值分解(SVD)(SVD),以下说法错误的是 {{ multiselect(9) }}

  • 奇异值矩阵\sum的对角元素非负且按降序排列。
  • SVDSVD 适用于任意m×nm×n矩阵。
  • 左奇异向量是ATAA^{T}A的特征向量。
  • SVDSVD 唯一确定,即分解结果U,,VU,\sum,V 唯一。

1010、若某项目有nn位选手,每两人之间都进行一次对战(即总共进行(n2)\binom{n}{2} 场比赛),最终按胜场数排名,胜场数最高的前mm人晋级决赛,第mm名若出现胜场数并列,则需进行加赛,因此不能保证晋级。请问,一个选手最少需要赢几场才能确保晋级?\left \lceil * \right \rceil 表示向上取整。 {{ select(10) }}

  • (2nm1)2\left \lceil \frac{(2n-m-1)}{2} \right \rceil
  • (m1)2\left \lceil \frac{(m-1)}{2} \right \rceil
  • $\left \lceil \frac{(m-1)+(n-1)+1}{m-n+1} \right \rceil $
  • (m1)(n)m\left \lceil \frac{(m-1)(n)}{m} \right \rceil

1111、任何一个连续型随机变量的概率密度中ϕ(x)\phi(x)一定满足() {{ select(11) }}

  • 在定义域内单调不减在定义域内单调不减
  • ϕ(x)>1\phi(x)>1
  • 0ϕ(x)10≤\phi(x)≤ 1
  • +ϕ(x)dx=1\int_{-\infty}^{+\infty} \phi(x)dx=1

12、在支持向量机(SVM)(SVM)中,假设你正在处理一个非线性可分的数据集,并选择了径向基函数(RBF)(RBF)作为核函数。如果调整参数CC(正则化参数)和γ\gamma(核系数)的值,以下哪一项最准确地描述了这两个参数对模型复杂度和泛化能力的影响? {{ select(12) }}

  • 减小CC增加正则化强度,使模型更简单;减小γ\gamma使决策边界更加平滑,但可能导致欠拟合
  • 减小CC减少正则化强度,使模型更复杂;减小γ\gamma使决策边界更加灵活,但可能导致过拟合
  • 增大CC减少正则化强度,使模型更复杂;增大γ\gamma使决策边界更加灵活,但可能导致过拟合
  • 增大CC增加正则化强度,使模型更简单;增大γ\gamma使决策边界更加平滑,但可能导致欠拟合

13、TokenizerTokenizer的核心作用是什么? {{ select(13) }}

  • 把文本翻译成中文
  • 把文本变成浮点向量
  • 把文本翻译成英文
  • 把文本变成整数IDID序列

14、设ABA、B为随机事件,且P(A)=0.5P(B)=0.6P(BA)=0.8P(A)=0.5,P(B)=0.6,P(B|A)=0.8,则 P(BA)=()P(B \cup A)=() {{ select(14) }}

  • 0.70.7
  • 1.11.1
  • 0.30.3
  • 0.80.8

15、设总体XX的概率分布为P(X=1)=1θ2P(X =1) =\frac{1-\theta}{2} , P(X=2)=P(X=3)=1+θ4P(X =2) = P(X =3) =\frac{1+\theta}{4},利用来自总体的样本值¥2,2,1,3,1,3,1,22,2,1,3,1,3,1,2,可得的θ\theta最大似然估计值为() {{ select(15) }}

  • 1/21/2
  • 3/53/5
  • 1/41/4
  • 2/52/5

多选题

16、对线性方程组:$\left\{\begin{matrix} 5x+y=2 & \\ x+3y=4& \end{matrix}\right.$使用高斯-赛德尔迭代法,初始值(x(0),y(0))=(0,0)(x^{(0)},y^{(0)}) =(0, 0) 。下列结果正确的是? {{ multiselect(16) }}

  • 经过两步迭代:x(2)=0.08,y(2)=1.28x^{(2)} = 0.08, y^{(2)} = 1.28
  • x(1)=0.4x^{(1)}=0.4
  • 迭代矩阵的谱半径ρ(BGs)>1\rho(B_{Gs})> 1,方法发散
  • y(1)=1.2y^{(1)}=1.2

17、你想使用朴素贝叶斯分类器来过滤垃圾邮件。该模型的核心是贝叶斯公式PP(类别|特征)P\propto P(特征|类别)P*P(类别)。为了让这个模型有效工作,你需要从训练数据中估计哪些概率值? {{ multiselect(17) }}

  • 在给定类别下,每个特征(例如,每个单词)出现的条件概率PP(单词|类别)。
  • 每个类别的先验概率PP(类别),例如PP(垃圾邮件)和 PP(正常邮件)。
  • 特征之间的联合概率P(单词11,单词22|类别)。
  • 每个特征的边缘概率PP(单词)。

18、在卷积神经网络(CNN)中,以下操作属于线性变换的是: {{ multiselect(18) }}

  • 卷积操作
  • 激活函数ReLU ReLU
  • 全连接层
  • 池化操作

19、下面关于决策树、XGBoostXGBoost算法的说法,正确的有? {{ multiselect(19) }}

  • XGBoostXGBoost不支持正则化机制,无法控制树的复杂度,因此在高维稀疏数据上容易过拟合。
  • 决策树通过最小化节点不纯度进行分裂,因此深度越大,训练误差越小,模型泛化性能也越好。
  • XGBoostXGBoost在每轮迭代中对损失函数进行二阶泰勒展开,利用梯度和HessianHessian信息构建新弱学习器,提升收敛速度与预测精度。
  • 基尼不纯度用于衡量节点中样本的类别纯度,其值越大表示样本类别越混杂,常用于分类树的分裂标准。

20、一位工程师正在为一个包含大量专业术语(如医疗、法律文书)的知识库构建一个RAGRAG(检索增强生成)系统。在设计和调试文本处理与检索流程时,他得出了一系列结论。请判断下列结论中,哪些是准确的? {{ multiselect(20) }}

  • 一个标准的RAGRAG系统在处理用户请求时,其信息流是:先将用户的文本查询转换为一个查询向量,用此向量在数据库中检索出最相似的若干个文档块的向量,然后将这些文档块的原始文本(而非它们的向量)与原始查询一同作为上下文,提供给大语言模型(LLM)(LLM)生成最终答案。
  • 在进行文档切分(Chunking)(Chunking)时,选择一个极小的、固定的切分尺寸(如3232tokentoken)是最佳策略,因为它能最大化每个文本块(chunk)(chunk)的语义集中度,从而确保向量检索的精准性。
  • 使用一个在通用网络文本上预训练的TokenizerTokenizer处理这些专业文档时,许多专业术语会被切分成多个通用子词(subword)(sub-word)。这种切分会“稀释"原术语的特定义,可能导致其生成的EmbeddingEmbedding向量质量下降。
  • 为了优化线上服务的推理速度和成本,可以采用一个强大的重量级模型来离线处理所有文档并生EmbeddingEmbedding,同时在线上使用一个轻量级模型来实时编码,户的查询(Query) (Query),只要这两个模型都属于同一系列(如都是BERTBERT的变体)即可。