试卷相关题目
- 1集成学习中增强多样性的常见做法有( )。
A.数据样本扰动
B.输入属性扰动
C.输出表示扰动
D.算法参数扰动
开始考试点击查看答案 - 2下列属于机器学习生成式模型的有( )。
A.朴素贝叶斯
B.隐马尔科夫模型
C.线性回归模型
D.深度信念网络
开始考试点击查看答案 - 3下列关于机器学习的理解正确的有( )。
A.非监督学习的样本数据是要求带标签的
B.监督学习和非监督学习的区别在于是否要求样本数据带标签
C.强化学习以输入数据作为对模型的反馈
D.卷积神经网络一般用于图像处理等局部特征相关的数据
开始考试点击查看答案 - 4如果想要训练一个ML模型,样本数量为100万个,特征维度为5000个,面对如此大数据,那么有效地训练模型可以采取的措施有( )。
A.对训练集随机采样,在随机采样的数据上建立模型
B.尝试使用在线机器学习算法
C.使用PCA算法减少特征维度
开始考试点击查看答案 - 5假设目标遍历的类别非常不平衡,即主要类别占据了训练数据的99%,假设现在模型在训练集上表现为99%的准确度,那么下列说法正确的有( )。
A.准确度并不适合衡量不平衡类别问题
B.准确度适合衡量不平衡类别问题
C.精确度和召回率适合于衡量不平衡类别问题
D.精确度和召回率不适合衡量不平衡类别问题
开始考试点击查看答案 - 6下列关于学习器结合的描述正确的有( )。
A.避免单学习器可能因误选而导致泛化性能不佳
B.降低陷入局部极小点的风险
C.假设空间扩大有可能学得更好的近似
D.多学习器结合有可能冲突
开始考试点击查看答案 - 7随机森林在做数据处理方面的优势有( )。
A.不需要做缺失值处理
B.不需要处理噪声
C.不需要做特征选择
D.不需要平衡数据集
开始考试点击查看答案 - 8随机森林的随机性主要体现在( )。
A.决策树选择的随机性
B.数据集的随机性
C.待选特征的随机性
D.参数选择的随机性
开始考试点击查看答案 - 9下列关于集成学习的说法正确的有( )。
A.随机森林是减少模型的方差,而GBDT是减少模型的偏差
B.组成随机森林的树可以并行生成,而GBDT是串行生成
C.随机森林的结果是多数表决的,而GBDT则是多棵树累加之和
D.随机森林对异常值不敏感,而GBDT对异常值比较敏感
开始考试点击查看答案 - 10下列关于EM算法的描述正确的有( )。
A.EM算法是常用的估计参数隐变量的利器
B.EM算法即是期望最大化算法
C.EM算法常被用来学习高斯混合模型的参数
D.EM算法是一种迭代式的方法
开始考试点击查看答案
最新试卷
高中教育高考英语高考英语完形解题策略训练二
类别:学历类其它高中教育高考英语高考英语完形解题策略
类别:学历类其它高中教育高考英语陕西2014年高考英语试题
类别:学历类其它高中教育高考英语英语听力模拟试题(十二))
类别:学历类其它高中教育高考英语福建2014年高考英语试题
类别:学历类其它高中教育高考英语浙江省金华十校2011年高考模拟考试英语试题
类别:学历类其它高中教育高考英语浙江2014年高考英语试题
类别:学历类其它高中教育高考英语江苏省常州市北郊中学2011年高考英语模拟试
类别:学历类其它高中教育高考英语江苏省常州三中2011届高三高考英语模拟试卷
类别:学历类其它高中教育高考英语广东省湛江市2011届英语普通高考测试(一)
类别:学历类其它