单项选择题
下面有关激活函数说法错误的是:()
A.Sigmoid容易饱和,出现梯度消失B.LeakyRelu是Relu的一个变种,他在x< 0部分输出不为0C.Tanh存在梯度消失问题,但是是0均值,而且收敛速度比sigmoid慢D.Relu收敛速度比sigmoid和tanh快很多,可以缓解梯度消失现象
单项选择题 LSTM相比传统RNN,有什么优点?()
单项选择题 以下关于迁移学习说法错误的是:()
问答题 boosting算法和bagging家族算法的区别是什么?常用的boosting算法和bagging算法有哪些?