admin 发表于 2015-11-18 09:46:22

十大经典数据挖掘算法R语言实践(五)CART分类回归决策树

续《十大经典数据挖掘算法R语言实践(四)》,本文介绍CART(分类决策回归树)算法在R语言中如何使用。
数据集采用R语言内置的iris数据集。#查看数据集前六个观测
head(iris)
Sepal.LengthSepal.WidthPetal.LengthPetal.WidthSpecies
5.13.51.40.2setosa
4.93.01.40.2setosa
4.73.21.30.2setosa
4.63.11.50.2setosa
5.03.61.40.2setosa
5.43.91.70.4setosa

CART算法R语言实践第一步:数据集划分训练集和测试,比例是2:1set.seed(1234)
index <-sample(1:nrow(iris),100)
iris.train <-iris
iris.test <-iris[-index,]
第二步:加载包含CART算法的R包library(rpart)
第三步:构建CART模型model.CART <-rpart(Species~.,data=iris.train)
第四步:模型应用到测试集results.CART <-predict(model.CART,newdata=iris.test, type="class")
第五步:生成混淆矩阵table(results.CART, iris.test$Species)
results.CART/setosaversicolorvirginica
setosa1200
versicolor0213
virginica0014

CART算法原理1 分类回归树(CART,ClassificationAnd Regression Tree)也属于一种决策树,分类回归树是一棵二叉树,且每个非叶子节点都有两个孩子。2 决策树生长的核心是确定决策树的分枝准则。1)如何从众多的属性变量中选择一个当前的最佳分支变量;也就是选择能使异质性下降最快的变量。异质性的度量:GINI、TWOING、least squared deviation。前两种主要针对分类型变量,LSD针对连续性变量。   2)如何从分支变量的众多取值中找到一个当前的最佳分割点(分割阈值)。 A、数值型变量——对记录的值从小到大排序,计算每个值作为临界点产生的子节点的异质性统计量。能够使异质性减小程度最大的临界值便是最佳的划分点。 B、分类型变量——列出划分为两个子集的所有可能组合,计算每种组合下生成子节点的异质性。同样,找到使异质性减小程度最大的组合作为最佳划分点。3 在决策树的每一个节点上我们可以按任一个属性的任一个值进行划分。按哪种划分最好呢?有3个标准可以用来衡量划分的好坏:GINI指数、双化指数、有序双化指数。
参考资料
1 《数据挖掘导论》和《数据挖掘:概念与技术》
2 数据挖掘十大经典算法(详解)
3 Top 10 data mining algorithms in plain R

页: [1]
查看完整版本: 十大经典数据挖掘算法R语言实践(五)CART分类回归决策树