数据代码分享|R语言用CHAID决策树分析花卉栽培影响因素数据可视化、误差分析

在植物学和农业科学领域,理解影响植物生长和花朵产生的因素对于提高生产效率和优化栽培方法具有重要意义。

由Kaizong Ye,Weilong Zhang撰写

因此,对于一个包含多个变量的数据集进行全面的分析和可视化是非常有帮助的。

本研究基于一个数据集,该数据集包含了花卉栽培过程中的多种变量,其中包括数值型变量(如花朵数量、白天条件和夜晚条件)以及分类变量(如肥料类型、品种和栽培制度)。我们使用R语言中的CHAID决策树算法帮助客户对这个数据集进行了分析,并通过可视化展现了影响种花的关键因素。


可下载资源


本文分析的数据和代码分享至会员群

数据集中的变量解释如下:

× 卡方自动交互检测法(chi-squared automatic interaction detector, CHAID)最早由Kass于1980年提出,是一个用来发现变量之间关系的工具,是一种基于调整后的显着性检验(邦费罗尼检验)决策树技术。 其核心思想是:根据给定的反应变量和解释变量对样本进行最优分割,按照卡方检验的显著性进行多元列联表的自动判断分组。利用卡方自动交互检测法可以快速、有效地挖掘出主要的影响因素,它不仅可以处理非线性和高度相关的数据,而且可以将缺失值考虑在内,能克服传统的参数检验方法在这些方面的限制。 在实践中,CHAID经常使用在直销的背景下,选择消费者群体,并预测他们的反应,一些变量如何影响其他变量,而其他早期应用是在医学和精神病学的研究领域。 CHAID分析构建了一个预测模型,或树,以帮助确定给定因变量,变量如何最好地合来解释结果。CHAID分析,名义,有序和连续数据可以使用,在连续预测类别被分成大致相等的若干观测。CHAID对每个分类预测创建了交叉表,直到达到最好的结果,无法继续分类为止。在CHAID技术中,我们可以直观地看到在树的分割变量和相关因子之间的关系。决策树或分类树的展开,始于确定作为根节点的目标变量或因变量。 CHAID分析将目标变量分割成两个或两个以上的类被称为根节点,或者父节点,然后使用统计算法将节点分为子节点。不同于回归分析,CHAID技术并不要求数据是正态分布. CHAID的优势是它的结果是非常直观的易于理解的。由于默认情况下CHAID采用多路分割,需要相当大的样本量,来有效地开展工作,而小样本组受访者可以迅速分为太小了的组,而无法可靠的分析。 CHAID决策树的构成包括: 根节点:根节点包含因变量或目标变量。例如,CHAID使用于,银行根据年龄,收入,信用卡等,来预测信用卡风险。在这个例子中,信用卡风险是目标变量,其余变量是预测变量。 父节点:该算法将目标变量分割成两个或多个分类。这些分类被称为父节点或者初始节点。在银行的例子中,父节点是高,中,低三个分类。 子节点:CHAID分析树中独立变量分类低于父节点的分类被称为子节点。 终端节点:CHAID分析树最后一个分类被称为终端节点。 CHAID分析树中,主要的影响变量排在前面,次要的排在后面。因此,它被称为终端节点。 CHAID的优点 可产生多分枝的决策树 目标变量可以定距或定类 从统计显著性角度确定分支变量和分割值,进而优化树的分枝过程 建立在因果关系探讨中,依据目标变量实现对输入变量众多水平划分

数值型变量:

  1. Flowers(花朵):这是一个数值型变量,表示植物的花朵数量。每个样本有一个具体的数字,用于描述植物生长期间产生的花朵数量。
  2. Day(白天):这是一个数值型变量,表示植物在白天的相关信息。温度,用于描述植物在白天的环境条件和生长状态。
  3. Night(夜晚):这是一个数值型变量,表示植物在夜晚的相关信息。夜间温度,用于描述植物在夜晚的环境条件和生长状态。

分类变量:

  1. Fertilizer(肥料):这是一个分类变量,表示植物所接受的肥料类型,用于描述植物的养分供应情况。
  2. Variety(品种):这是一个分类变量,表示植物的品种,用于描述不同品种植物的特征和性质。
  3. Regimem(栽培制度):这是一个分类变量,表示植物的栽培方式或管理制度,用于描述植物的生长环境和栽培方法。

视频

从决策树到随机森林:R语言信用卡违约分析信贷数据实例

探索见解

去bilibili观看

探索更多视频

通过对这些变量的解释和研究,我们可以探索花朵数量与其他变量(如白天、夜晚条件、肥料类型、品种和栽培制度)之间的关系,了解不同因素对植物生长和花朵产生的影响。同时,也可以比较不同品种、不同栽培制度和肥料类型下的花朵数量和生长表现,以便在农业、园艺和植物繁殖等领域应用相关知识。

image.png

 

读取数据

df2=read.xlsx("data.xlsx",sheet = 2)  
  
head(df2)

CHAID决策树

CHAID(Chi-square Automatic Interaction Detector)决策树是一种用于创建分类模型的决策树算法。它基于卡方检验来确定在给定的特征和目标变量之间是否存在显著的关联。


图片

数据分享|R语言逻辑回归、线性判别分析LDA、GAM、MARS、KNN、QDA、决策树、随机森林、SVM分类葡萄酒交叉验证ROC

阅读文章


CHAID决策树的构建过程是逐步进行的。它首先选择一个作为根节点的特征,然后根据该特征的不同取值将数据集分割成多个子集。接下来,对每个子集重复上述过程,选择一个最佳的特征继续分割。这个过程一直持续到满足停止准则为止,例如达到预定的树深度或子集中的样本数量不足。


随时关注您喜欢的主题


在每次分割过程中,CHAID使用卡方检验来评估特征和目标变量之间的关联程度。它将特征的不同取值作为自变量,目标变量的不同取值作为因变量,计算卡方值。如果卡方值超过了预定的显著性水平,说明该特征与目标变量之间存在显著的关联,可以选择该特征作为分割点。

CHAID决策树的优点是能够处理离散型和连续型的特征变量,并且可以处理多分类问题。它还可以自动选择最佳的分割点,减少了人工选择特征的主观性。然而,CHAID决策树在处理高维数据和处理缺失值方面存在一定的局限性。

#获得训练集  
train <- sample(1:nrow(df2), nrow(df2)*0.8)

建立决策树:Flowers


ct = deciionee(Flowers  ~ ., data = df2 )

通过决策树模型可以得到以下的决策树,从结果中可以看到day和night两个变量是决策flowers类型的重要变量。

image.png
# 预测每一个样本属于每一个类别的概率  
tr.pred = predict(ct, newda

第一个样本属于每个类别的概率如下表所示


## [[1]]  
##  [1] 0.153125000 0.109375000 0.083333333 0.044791667 0.018750000  
##  [6] 0.018750000 0.007291667 0.002083333 0.001041667 0.003125000  
## [11] 0.001041667 0.001041667 0.005208333 0.025000000 0.081250000  
## [16] 0.141666667 0.162500000 0.140625000  
##

第二个样本属于每个类别的概率如下表所示

## [[2]]  
##  [1] 0.153125000 0.109375000 0.083333333 0.044791667 0.018750000  
##  [6] 0.018750000 0.007291667 0.002083333 0.001041667 0.003125000  
## [11] 0.001041667 0.001041667 0.005208333 0.025000000 0.081250000  
## [16] 0.141666667 0.162500000 0.140625000  
##

第三个样本属于每个类别的概率如下表所示


## [[3]]  
##  [1] 0.153125000 0.109375000 0.083333333 0.044791667 0.018750000  
##  [6] 0.018750000 0.007291667 0.002083333 0.001041667 0.003125000  
## [11] 0.001041667 0.001041667 0.005208333 0.025000000 0.081250000  
## [16] 0.141666667 0.162500000 0.140625000  
##

得到训练集混淆矩阵

tab=table(tree.pred,df2.test$Flowers)

image.png

混淆矩阵为预测flower类别和实际flower类别组成的矩阵,行为预测类别,列为实际类别。从结果可以看到实际预测类别和预测类别符合的个数和程度。

绘制实际类别和预测类别的散点图

image.png

图中横线表示y=x的直线,横轴为实际类别,纵轴为预测类别,图中的点越接近横线表示预测的效果越好。

求均方误差

mean((as.numeric(tree.pred) - as.numeric(df2.test$Flowers))^2)

## [1] 74.65885

将flower分成三组5-9,9-13,13-19

将”flower”数量分成三组进行分类,每组的范围如下:

第一组:包括5到9(包括5和9)之间的flower; 第二组:包括9到13(包括9和13)之间的flower; 第三组:包括13到19(包括13和19)之间的flower。

# 建立CHAID决策树=======================Flowers

df2$Flowers=as.numeric(df2$Flowers)

index1=which(df2$Flowers<=5) 

index2=which(df2$Flowers<=9 & df2$Flowers>=5) 

index3=which(df2$Flowers>=9) 

df2$Flowers[index1]=1
df2$Flowers[index2]=2
df2$Flowers[index3]=3

CHAID决策树

plot(ct
1111.png
table(predict(ct), df2$Flowers)

预测类别概率Estimated class probabilities

tr.pred = predict(ct, newdata=df2.test, type="prob")  
tr.pred

## [[1]]  
## [1] 2.5125
image.png

误差

#rmse  
sqrt(mean((as.numeric(tree.pred) - as.numeric(df2.test$Flowers))^2))

## [1] 0.4875514

#nmse  
  
 

(sum( tree.pred - (df2.test$Flowers))^2)/(mean(tree.pred)*(mean((df2.test$Flowers))))/nrow(tree.pred)

## [1] 0.002686602


每日分享最新报告和数据资料至会员群

关于会员群

  • 会员群主要以数据研究、报告分享、数据工具讨论为主;
  • 加入后免费阅读、下载相关数据内容,并同步海内外优质数据文档;
  • 老用户可九折续费。
  • 提供报告PDF代找服务

​非常感谢您阅读本文,如需帮助请联系我们!

 
QQ在线咨询
售前咨询热线
15121130882
售后咨询热线
0571-63341498

关注有关新文章的微信公众号


永远不要错过任何见解。当新文章发表时,我们会通过微信公众号向您推送。

技术干货

最新洞察

This will close in 0 seconds