下列关于学习器结合的描述正确的有( )。
A.避免单学习器可能因误选而导致泛化性能不佳
B.降低陷入局部极小点的风险
C.假设空间扩大有可能学得更好的近似
D.多学习器结合有可能冲突
试卷相关题目
- 1常用的冲突消解策略包括( )。
A.投票法
B.排序法
C.元规则法
D.调研法
开始考试点击查看答案 - 2集成学习中增强多样性的常见做法有( )。
A.数据样本扰动
B.输入属性扰动
C.输出表示扰动
D.算法参数扰动
开始考试点击查看答案 - 3下列属于机器学习生成式模型的有( )。
A.朴素贝叶斯
B.隐马尔科夫模型
C.线性回归模型
D.深度信念网络
开始考试点击查看答案 - 4下列关于机器学习的理解正确的有( )。
A.非监督学习的样本数据是要求带标签的
B.监督学习和非监督学习的区别在于是否要求样本数据带标签
C.强化学习以输入数据作为对模型的反馈
D.卷积神经网络一般用于图像处理等局部特征相关的数据
开始考试点击查看答案 - 5如果想要训练一个ML模型,样本数量为100万个,特征维度为5000个,面对如此大数据,那么有效地训练模型可以采取的措施有( )。
A.对训练集随机采样,在随机采样的数据上建立模型
B.尝试使用在线机器学习算法
C.使用PCA算法减少特征维度
开始考试点击查看答案 - 6随机森林在做数据处理方面的优势有( )。
A.不需要做缺失值处理
B.不需要处理噪声
C.不需要做特征选择
D.不需要平衡数据集
开始考试点击查看答案 - 7随机森林的随机性主要体现在( )。
A.决策树选择的随机性
B.数据集的随机性
C.待选特征的随机性
D.参数选择的随机性
开始考试点击查看答案 - 8下列关于集成学习的说法正确的有( )。
A.随机森林是减少模型的方差,而GBDT是减少模型的偏差
B.组成随机森林的树可以并行生成,而GBDT是串行生成
C.随机森林的结果是多数表决的,而GBDT则是多棵树累加之和
D.随机森林对异常值不敏感,而GBDT对异常值比较敏感
开始考试点击查看答案 - 9下列关于EM算法的描述正确的有( )。
A.EM算法是常用的估计参数隐变量的利器
B.EM算法即是期望最大化算法
C.EM算法常被用来学习高斯混合模型的参数
D.EM算法是一种迭代式的方法
开始考试点击查看答案 - 10在监督式学习中使用聚类算法的方法有( )。
A.首先可以创建聚类,然后分别在不同的集群上应用监督式学习算法
B.应用监督式学习算法之前,可以将其类别ID作为特征空间中的一个额外的特征
C.在应用监督式学习之前,不能创建聚类
D.在应用监督式学习算法之前,不能将其类别ID作为特征空间中的一个额外的特征
开始考试点击查看答案
最新试卷
高中教育高考英语高考英语完形解题策略训练二
类别:学历类其它高中教育高考英语高考英语完形解题策略
类别:学历类其它高中教育高考英语陕西2014年高考英语试题
类别:学历类其它高中教育高考英语英语听力模拟试题(十二))
类别:学历类其它高中教育高考英语福建2014年高考英语试题
类别:学历类其它高中教育高考英语浙江省金华十校2011年高考模拟考试英语试题
类别:学历类其它高中教育高考英语浙江2014年高考英语试题
类别:学历类其它高中教育高考英语江苏省常州市北郊中学2011年高考英语模拟试
类别:学历类其它高中教育高考英语江苏省常州三中2011届高三高考英语模拟试卷
类别:学历类其它高中教育高考英语广东省湛江市2011届英语普通高考测试(一)
类别:学历类其它