位置:首页 > 题库频道 > 其它分类 > 招考类其它 > 企事业内部考试类电力电力计算机相关多选题

与相同步长的卷积层相比,使用池化层的优势不包含()

发布时间:2024-07-13

A.参数更少

B.可以获得更大下采样

C.速度更快

D.有助于提升精度

试卷相关题目

  • 1卷积神经网络中常用的池化函数包括()

    A.最大池化函数

    B.L2范数

    C.相邻矩形区域内的平均值

    D.基于据中心像素距离的加权平均函数

    开始考试点击查看答案
  • 2卷积神经网络为了保证图像对位移、缩放、扭曲的鲁棒性,可采取的措施有()

    A.局部感受野

    B.共享权值

    C.池采样

    D.正则化

    开始考试点击查看答案
  • 3下列关于梯度消失和梯度爆炸的说法正确的有()

    A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0 "

    B.可以采用ReLU激活函数有效地解决梯度消失的情况" "

    C.根据链式法则,如果每一层神经元对上一层输出的偏导乘上权重结都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大" "

    D.可以通过减小初始权重矩阵的值来缓解度爆炸"

    开始考试点击查看答案
  • 4下列关于卷积神经网络的叙述正确的有()

    A.可用于处理时间序列数据

    B.可用于处理图像数据

    C.卷积网络中使用的卷积运算就是数学中的卷积计算

    D.至少在网络的一层中使用卷积

    开始考试点击查看答案
  • 5下列关千Dropout的说法正确的有()

    A.Dropout背后的思想其实就是把DNN当作一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN "

    B.DNN网络将Dropout率设置为P,也就是说一个神经元被保留概率是1-P,。当一个神经元被丢弃时:无论输入或者相关的参数是什么,它的输值就会被设置为0 " "

    C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。由于这个原因,每一次训练都像是在训练一个新的网路 " "

    D.Dropout方法通常和L2正则化或其他参数约束技术〔比如Max Norm)一起使用来防止神经网络的过拟合"

    开始考试点击查看答案
  • 6下列关于深度学习的实质及其与浅层学习区别的说法正确的有()

    A.深度学习强调模型深度

    B.深度学习突出特征学习的重要性:特征变换+非人工

    C.没有区别

    D.以上答案都不正确

    开始考试点击查看答案
  • 7RNN网络的激活函数选用双曲正切而不是Sigmod的原因有()

    A.使用Sigmod函数容易出现梯度消失

    B.Sigmod的导数形式较为复杂

    C.双曲正切更简单

    D.Sigmoid函数实现较为复杂

    开始考试点击查看答案
  • 8下列关于RNN、LSTM、GRU的说法正确的有()

    A.RNN引入了循环的概念

    B.LSTM可以防止梯度消失或者爆炸

    C.GRU是LSTM的变体

    D.RNN、LSTM、GRU是同一神经网络的不同说法,没有区别

    开始考试点击查看答案
  • 9下列关于极大似然估计的说法正确的有()

    A.MLE可能并不存在

    B.MLE总是存在

    C.如果MLE存在,那么它的解可能不是唯一的

    D.如果MLE存在,那么它的解一定是唯一的

    开始考试点击查看答案
  • 10下列可以用来构造神经网络的算法有()

    A.KNN

    B.线性回归

    C.逻辑回归

    开始考试点击查看答案
返回顶部