位置:首页 > 题库频道 > 其它分类 > 招考类其它 > 企事业内部考试类电力电力计算机相关多选题

下列关于深度学习的实质及其与浅层学习区别的说法正确的有()

发布时间:2024-07-13

A.深度学习强调模型深度

B.深度学习突出特征学习的重要性:特征变换+非人工

C.没有区别

D.以上答案都不正确

试卷相关题目

  • 1与相同步长的卷积层相比,使用池化层的优势不包含()

    A.参数更少

    B.可以获得更大下采样

    C.速度更快

    D.有助于提升精度

    开始考试点击查看答案
  • 2卷积神经网络中常用的池化函数包括()

    A.最大池化函数

    B.L2范数

    C.相邻矩形区域内的平均值

    D.基于据中心像素距离的加权平均函数

    开始考试点击查看答案
  • 3卷积神经网络为了保证图像对位移、缩放、扭曲的鲁棒性,可采取的措施有()

    A.局部感受野

    B.共享权值

    C.池采样

    D.正则化

    开始考试点击查看答案
  • 4下列关于梯度消失和梯度爆炸的说法正确的有()

    A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0 "

    B.可以采用ReLU激活函数有效地解决梯度消失的情况" "

    C.根据链式法则,如果每一层神经元对上一层输出的偏导乘上权重结都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大" "

    D.可以通过减小初始权重矩阵的值来缓解度爆炸"

    开始考试点击查看答案
  • 5下列关于卷积神经网络的叙述正确的有()

    A.可用于处理时间序列数据

    B.可用于处理图像数据

    C.卷积网络中使用的卷积运算就是数学中的卷积计算

    D.至少在网络的一层中使用卷积

    开始考试点击查看答案
  • 6RNN网络的激活函数选用双曲正切而不是Sigmod的原因有()

    A.使用Sigmod函数容易出现梯度消失

    B.Sigmod的导数形式较为复杂

    C.双曲正切更简单

    D.Sigmoid函数实现较为复杂

    开始考试点击查看答案
  • 7下列关于RNN、LSTM、GRU的说法正确的有()

    A.RNN引入了循环的概念

    B.LSTM可以防止梯度消失或者爆炸

    C.GRU是LSTM的变体

    D.RNN、LSTM、GRU是同一神经网络的不同说法,没有区别

    开始考试点击查看答案
  • 8下列关于极大似然估计的说法正确的有()

    A.MLE可能并不存在

    B.MLE总是存在

    C.如果MLE存在,那么它的解可能不是唯一的

    D.如果MLE存在,那么它的解一定是唯一的

    开始考试点击查看答案
  • 9下列可以用来构造神经网络的算法有()

    A.KNN

    B.线性回归

    C.逻辑回归

    开始考试点击查看答案
  • 10以下列描述属于传统循环神经网络的性质有

    A.上一时刻的网络状态狺息将会作用于下一时刻的网络状态

    B.并行处理序列中的所有信息

    C.容易梯度爆炸/消失

    D.易于搭建

    开始考试点击查看答案
返回顶部