RNN网络的激活函数选用双曲正切而不是Sigmod的原因有()
A.使用Sigmod函数容易出现梯度消失
B.Sigmod的导数形式较为复杂
C.双曲正切更简单
D.Sigmoid函数实现较为复杂
试卷相关题目
- 1下列关于深度学习的实质及其与浅层学习区别的说法正确的有()
A.深度学习强调模型深度
B.深度学习突出特征学习的重要性:特征变换+非人工
C.没有区别
D.以上答案都不正确
开始考试点击查看答案 - 2与相同步长的卷积层相比,使用池化层的优势不包含()
A.参数更少
B.可以获得更大下采样
C.速度更快
D.有助于提升精度
开始考试点击查看答案 - 3卷积神经网络中常用的池化函数包括()
A.最大池化函数
B.L2范数
C.相邻矩形区域内的平均值
D.基于据中心像素距离的加权平均函数
开始考试点击查看答案 - 4卷积神经网络为了保证图像对位移、缩放、扭曲的鲁棒性,可采取的措施有()
A.局部感受野
B.共享权值
C.池采样
D.正则化
开始考试点击查看答案 - 5下列关于梯度消失和梯度爆炸的说法正确的有()
A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0 "
B.可以采用ReLU激活函数有效地解决梯度消失的情况" "
C.根据链式法则,如果每一层神经元对上一层输出的偏导乘上权重结都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大" "
D.可以通过减小初始权重矩阵的值来缓解度爆炸"
开始考试点击查看答案 - 6下列关于RNN、LSTM、GRU的说法正确的有()
A.RNN引入了循环的概念
B.LSTM可以防止梯度消失或者爆炸
C.GRU是LSTM的变体
D.RNN、LSTM、GRU是同一神经网络的不同说法,没有区别
开始考试点击查看答案 - 7下列关于极大似然估计的说法正确的有()
A.MLE可能并不存在
B.MLE总是存在
C.如果MLE存在,那么它的解可能不是唯一的
D.如果MLE存在,那么它的解一定是唯一的
开始考试点击查看答案 - 8下列可以用来构造神经网络的算法有()
A.KNN
B.线性回归
C.逻辑回归
开始考试点击查看答案 - 9以下列描述属于传统循环神经网络的性质有
A.上一时刻的网络状态狺息将会作用于下一时刻的网络状态
B.并行处理序列中的所有信息
C.容易梯度爆炸/消失
D.易于搭建
开始考试点击查看答案 - 10下列属于CNN关键层的有()
A.输入层
B.卷积层
C.激活层/消失
D.池化层
开始考试点击查看答案
最新试卷
高中教育高考英语高考英语完形解题策略训练二
类别:学历类其它高中教育高考英语高考英语完形解题策略
类别:学历类其它高中教育高考英语陕西2014年高考英语试题
类别:学历类其它高中教育高考英语英语听力模拟试题(十二))
类别:学历类其它高中教育高考英语福建2014年高考英语试题
类别:学历类其它高中教育高考英语浙江省金华十校2011年高考模拟考试英语试题
类别:学历类其它高中教育高考英语浙江2014年高考英语试题
类别:学历类其它高中教育高考英语江苏省常州市北郊中学2011年高考英语模拟试
类别:学历类其它高中教育高考英语江苏省常州三中2011届高三高考英语模拟试卷
类别:学历类其它高中教育高考英语广东省湛江市2011届英语普通高考测试(一)
类别:学历类其它