在监督式学习中使用聚类算法的方法有( )。
A.首先可以创建聚类,然后分别在不同的集群上应用监督式学习算法
B.应用监督式学习算法之前,可以将其类别ID作为特征空间中的一个额外的特征
C.在应用监督式学习之前,不能创建聚类
D.在应用监督式学习算法之前,不能将其类别ID作为特征空间中的一个额外的特征
试卷相关题目
- 1下列关于EM算法的描述正确的有( )。
A.EM算法是常用的估计参数隐变量的利器
B.EM算法即是期望最大化算法
C.EM算法常被用来学习高斯混合模型的参数
D.EM算法是一种迭代式的方法
开始考试点击查看答案 - 2下列关于集成学习的说法正确的有( )。
A.随机森林是减少模型的方差,而GBDT是减少模型的偏差
B.组成随机森林的树可以并行生成,而GBDT是串行生成
C.随机森林的结果是多数表决的,而GBDT则是多棵树累加之和
D.随机森林对异常值不敏感,而GBDT对异常值比较敏感
开始考试点击查看答案 - 3随机森林的随机性主要体现在( )。
A.决策树选择的随机性
B.数据集的随机性
C.待选特征的随机性
D.参数选择的随机性
开始考试点击查看答案 - 4随机森林在做数据处理方面的优势有( )。
A.不需要做缺失值处理
B.不需要处理噪声
C.不需要做特征选择
D.不需要平衡数据集
开始考试点击查看答案 - 5下列关于学习器结合的描述正确的有( )。
A.避免单学习器可能因误选而导致泛化性能不佳
B.降低陷入局部极小点的风险
C.假设空间扩大有可能学得更好的近似
D.多学习器结合有可能冲突
开始考试点击查看答案 - 6影响聚类算法效果的主要原因有( )。
A.特征选取
B.模式相似性测度
C.分类准则
D.已知类别的样本质量
开始考试点击查看答案 - 7K均值聚类算法和层次聚类算法在一些方面有重大差异,下列关于两种算法的说法正确的有( )。
A.在K均值聚类算法中,必须在运行算法前选定想要的簇的个数
B.在K均值聚类算法中,可以在运行算法后选定想要的簇的个数
C.在层次聚类算法中,可以在运行算法后选定想要的簇的个数
D.K均值聚类算法所需的计算量比层次聚类算法小得多
开始考试点击查看答案 - 8聚类性能度量外部指标包括( )。
A.Jaccard 系数
B.FM 指数
C.Dunn指数
D.Rand指数
开始考试点击查看答案 - 9聚类性能度量的指标主要分为外部指标和内部指标,其中属于内部指标的是( )。
A.Jaccard 指数
B.FM指数
C.DB指数
D.Dunn指数
开始考试点击查看答案 - 10常见的原型聚类算法包括()。
A.K均值算法
B.学习向量量化
C.高斯混合聚类
D.密度聚类
开始考试点击查看答案
最新试卷
高中教育高考英语高考英语完形解题策略训练二
类别:学历类其它高中教育高考英语高考英语完形解题策略
类别:学历类其它高中教育高考英语陕西2014年高考英语试题
类别:学历类其它高中教育高考英语英语听力模拟试题(十二))
类别:学历类其它高中教育高考英语福建2014年高考英语试题
类别:学历类其它高中教育高考英语浙江省金华十校2011年高考模拟考试英语试题
类别:学历类其它高中教育高考英语浙江2014年高考英语试题
类别:学历类其它高中教育高考英语江苏省常州市北郊中学2011年高考英语模拟试
类别:学历类其它高中教育高考英语江苏省常州三中2011届高三高考英语模拟试卷
类别:学历类其它高中教育高考英语广东省湛江市2011届英语普通高考测试(一)
类别:学历类其它