单项选择题
Transformer的突破点在哪()
A.将Attention机制发挥到了机制,完全摒弃了CNN/RNN
B.更加深层的使用了RNN系列的模型
C.使用了LSTM作为了特征提取
D.模型中的encoder层和decoder层的结构完全一样
点击查看答案
相关考题
-
单项选择题
seq2seq有什么样的缺点()
A.将decoder端的信息压缩到了一个固定向量中
B.将encoder端的信息压缩到了一个固定的向量中
C.没有用到神经网络
D.没有任何缺点 -
单项选择题
特征提取器Transformer为什么使用多头机制()
A.增加模型的复杂度
B.增加模型的运行时间
C.保证了Transformer可以注意到不同的子空间,捕捉更丰富的信息
D.无实际性的意义 -
判断题
BERT和ELMO使用的都是是单向的Transformer。
