单项选择题
关于Transformer模型的自注意力机制,以下哪项描述是错误的?()
A.它允许模型查看输入序列的所有位置
B.通过计算键值对的相似度来确定注意力权重
C.在编码器和解码器中使用相同的注意力机制
D.每个位置的输出仅依赖于该位置的输入
点击查看答案&解析
相关考题
-
单项选择题
在目标检测中,IoU(IntersectionoverUnion)的值反映了什么?()
A.预测框与真实框的面积比
B.预测框与真实框的交集面积占并集面积的比例
C.预测框的准确度
D.预测框与真实框的非重叠区域 -
单项选择题
在自然语言理解中,哪一项技术常用于处理句子之间的逻辑关系?()
A.依存句法分析
B.词性标注
C.语义角色标注
D.核心ference抽取 -
单项选择题
关于掩码语言模型(MaskedLanguageModel,MLM),以下说法错误的是()
A.是BERT模型预训练的核心技术之一
B.在训练时随机遮蔽输入序列的部分词汇让模型预测
C.有助于模型理解词序和上下文
D.通常用于生成任务而非预测任务
