单项选择题
Transformer中的Attention机制主要是用来做什么的?()
A.将输入序列直接映射到输出序列
B.生成新的词嵌入向量
C.替换Encoder和Decoder中的全连接层
D.计算输入序列中每个词的重要性
点击查看答案&解析
相关考题
-
单项选择题
在深度学习中,池化是指什么?()
A.将原始图像缩小或放大
B.对图像进行特征提取
C.缩减图像空间维度
D.对图像像素值进行归一化 -
单项选择题
在优化深度学习模型时,SGD和Adam优化器的主要区别在于什么?()
A.计算复杂性
B.收敛速度
C.使用的梯度类型
D.是否需要学习率 -
单项选择题
Dropout改进方法的原理是什么?()
A.增加正则化惩罚项,降低模型复杂度
B.增加隐藏层神经元数目,提高模型效果
C.使用更大的学习率,更快地收敛到最优解
D.在训练过程中,以一定的概率随机使某些神经元失活,减少过拟合的可能性
