T1
答案: C. 保证事实的绝对准确性
解析: LLM 虽然能力强,但不能保证输出内容绝对真实,仍可能出现“幻觉”。
T2
答案: B. 线性回归
1、下列哪个不是大语言模型(LLM)的典型特点?
{{ select(1) }}
- 主要基于Transformer架构
- 通过海量数据训练获得通用能力
- 保证事实的绝对准确性
- 参数规模通常达到数十亿至万亿级别
2、下列哪个算法属于监督学习?
{{ select(2) }}
- 主成分分析(PCA)
- 线性回归
- K-means 聚类
3、在RLHF(基于人类反馈的强化学习)流程中,奖励模型(Reward Model, RM)扮演了关键重要的角色。关于奖励模型的作用,以下描述最准确的是?
{{ select(3) }}
- 奖励模型是一个可微分的人类偏好代理(proxy),它将人类对答案好坏、主观的、不可导判断,转化为了一个可用于优化语言模型的、连续、可导的奖励信号。
- 奖励模型本身就是一个强化学习智能体(Agent),它通过与语言模型互动来学习如何给出最佳回答。
- 奖励模型的目标是学习模仿人类的写作风格,以便在后续的PPO阶段指导语言模型生成更像人类的文本。
- 奖励模型直接修改基座模型的权重,使其生成更高质量的文本。
4、关于先验概率和后验概率,正确的是
{{ select(4) }}
- 后验概率可以大于1
- 后验概率必须通过贝叶斯定理计算
- 先验概率是已知条件概率后的修正结果
- 先验概率是未考虑新信息前的初始概率
5、下列方法中没有考虑先验分布的是()
{{ select(5) }}
- 贝叶斯分类器
- 最大似然估计
- 贝叶斯学习
- 最大后验估计
6、考虑一个简单的马尔可夫决策过程(MDP),包含两个状态:s1和s2,其中s2是终止状态。在每个状态有两个可行动作:a1和a2。环境的动态如下:在状态s1:执行动作a1:以概率1转移到s2,获得即时奖励r=3。
执行动作a2:以概率1转移到s2,获得即时奖励r=−1。
在状态s2:为终止状态,无动作可执行。
使用Q - learning算法进行学习,折扣因子γ=0.9,学习率α=0.1。初始Q值全为0。
假设智能体从s1开始,执行动作a1,转移到s2,并终止。
问题:请根据此次经历,使用Q - learning更新规则,计算更新后的Q(s1, a1)的值。
{{ select(6) }}
7、在高斯混合模型(GMM)中,EM算法的E步主要计算:
{{ select(7) }}
8、设矩阵B=[2012],下列关于B的说法正确的是?
{{ select(8) }}
- 特征值为1,3,且B不可对角化
- 特征值为2,2,且B可对角化
- 特征值为1,3,且B可对角化
- 特征值为2,2,且B不可对角化
9、设二阶矩阵A=[1324],向量x=[56]。则矩阵乘运算 A⋅x的结果是?
{{ select(9) }}
- [17392353]
- [515624]
- [2334]
- [1739]
10、矩阵A是一个m×n的实矩阵,其奇异值分解为A=UΣVT,其中U、Σ、V分别为相应维度的矩阵。下列关于这三个矩阵的说法,正确的是()
{{ select(10) }}
- V是m×m的正交矩阵,且其列向量是ATA的特征向量
- U是m×n的正交矩阵,且其列向量是ATA的特征向量
- Σ是m×n的对角矩阵,对角元素非负且按降序排列
- 若A是可逆方阵,则Σ的对角元素均为0
11、设实矩阵 $$A \in \mathbb{R}^{m \times n}$$ 满足 m≥n 且 rank(A)=n。以下哪一句话一定正确?
{{ select(11) }}
- 若 m>n,则 Ax=b 没有解
- det(ATA)=0
- A 的列向量线性相关
- 方程 ATAx=ATb 有唯一解
12、已知矩阵A是3阶不可逆矩阵,α1,α2是齐次线性方程组Ax=0的基础解系,α3是矩阵A属于特征值λ=2的特征向量,则不是矩阵A特征向量的是( )
{{ select(12) }}
- 2α1+α3
- 3α1−4α2
- −5α3
- α1+2α2
13、给定样本矩阵 X∈Rn×d(行对应样本,列对应特征),若要在不丢失信息的前提下进行降维,使得重构误差(Frobenius范数)最小,应采用:
{{ select(13) }}
- QR 分解
- LU 分解
- Cholesky 分解
- 奇异值分解(SVD)截断
14、在RLHF中,reward model的训练依赖于
{{ select(14) }}
15、设A=(−11−30411),则(A+E)(E−A+A2−A3+A4−A5+A6)=()
注:E 为单位矩阵
{{ select(15) }}
- A=(−10−30412)
- A=(1230410)
- A=(1030412)
- A=(−12−30410)
16、关于注意力的表述,正确的是
{{ multiselect(16) }}
- 并非所有注意力变体都需计算QK^T
- MHA的参数量可能不随头数线性增长
- MLA的训练速度通常快于MHA
- GQA在推理时可减少K/V缓存的内存占用
17、关于连续型随机变量(Continuous Random Variable),以下说法正确的是()
注:E:表示数学期望,也称期望值,E[X] 表示随机变量 X 的期望值
{{ multiselect(17) }}
- 连续型随机变量的概率密度函数(PDF)在任意点的值可以大于1
- 连续型随机变量的累积分布函数(CDF)一定是连续函数
- 若 X是连续型随机变量,则 P(X=a)=0 对任意实数 a 成立
- 对于连续型随机变量 X,若其概率密度函数 f(x) 是常数,则 X 的分布关于0对称
18、误差来源中,截断误差和舍入误差的区别正确表述有哪些?
{{ multiselect(18) }}
- 舍入误差源于有限精度表示
- 截断误差源于有限步近似无穷过程(如泰勒级数截断)
- 两者均可完全消除
- 迭代法中,通常情况下,截断误差随迭代减小,舍入误差随迭代累积
19、关于 BPE(Byte-Pair Encoding)与 WordPiece 两种常见子词分词算法,以下说法正确的是(可多选)
{{ multiselect(19) }}
- 在 BPE 中,每轮迭代总是合并出现频次最高的符号对
- WordPiece 在每次合并时基于语言模型最大化似然,而非简单频次
- 两者都会把罕见词切分为更频繁的子词单元
- 如果使用相同语料训练,BPE 与 WordPiece 最终得到的词表一定完全相同
20、关于Causal Mask的作用,正确的是
{{ multiselect(20) }}
- 防止解码器在训练时看到未来的信息
- 是一个上三角为负无穷的矩阵
- 用于编码器的自注意力层以增强局部性
- 仅适用于文本生成任务