全国统计科学研究计划项目(2008LY049)
- 作品数:5 被引量:35H指数:2
- 相关作者:马景义谢邦昌吴喜之陈凯更多>>
- 相关机构:中央财经大学辅仁大学中国人民大学更多>>
- 发文基金:全国统计科学研究计划项目教育部人文社会科学研究基金中财121人才工程青年博士发展基金更多>>
- 相关领域:理学经济管理社会学更多>>
- 用于分类的随机森林和Bagging分类树比较被引量:17
- 2010年
- 借助试验数据,从两种理论分析角度解释随机森林算法优于Bagging分类树算法的原因。将两种算法表述在两种不同的框架下,消除了这两种算法分析中的一些模糊之处。尤其在第二种分析框架下,更能清楚的看出,之所以随机森林算法优于Bagging分类树算法,是因为随机森林算法对应更小的偏差。
- 马景义谢邦昌
- 拟适应再加权分类随机森林被引量:1
- 2010年
- 综合Adaboost算法的自适应再加权和随机森林算法的未修剪随机变量划分树基模型,文章提出了用于自适应随机森林算法。通过实验数据发现,在训练集较大、贝叶斯误差较小时,模拟自适应再加权会起作用,从而,拟自适应随机森林算法会优于随机森林算法。
- 马景义谢邦昌
- 一种选择性SER-BagBoosting Trees集成学习研究
- 2009年
- 集成学习已成为机器学习研究的一大热点。提出了一种综合Bagging和Boosting技术特点,以分类回归树为基学习器构造一种新的相似度指标用于聚类并利用聚类技术和贪婪算法进行选择性集成学习的算法——SER-BagBoosting Trees算法。算法主要应用于回归问题。实验表明,该算法往往比其它算法具有更好的泛化性能和更高的运行效率。
- 陈凯马景义
- 关键词:分类回归树自助法
- 拟自适应分类随机森林算法被引量:16
- 2010年
- 本文给出了集成学习模型可以收敛的集成学习算法,拟自适应分类随机森林算法。拟自适应分类随机森林算法综合了Adaboost算法和随机森林算法的优势,实验数据分析表明,训练集较大时,拟自适应随机森林算法的效果会好于随机森林算法。另外,拟自适应分类随机森林算法的收敛性确保它的推广误差可以通过训练集估计,所以,对于实际数据,拟自适应分类随机森林算法不需要把数据划分为训练集和测试集,从而,可以有效的利用数据信息。
- 马景义吴喜之谢邦昌
- 算法建模发展解析被引量:1
- 2009年
- Breiman并没有算法建模的一个完整体系,而且其许多研究都以工作论文的形式出现,对于这些方法机理的解析度都不够。本文在研究Breiman自1978年至2002年的论文和著作的基础上,概括出算法建模思想形成中的两个重要内容:建模目的,组合算法。
- 马景义吴喜之谢邦昌
- 关键词:贝叶斯规则