在植物学和农业科学领域,理解影响植物生长和花朵产生的因素对于提高生产效率和优化栽培方法具有重要意义。
因此,对于一个包含多个变量的数据集进行全面的分析和可视化是非常有帮助的。
本研究基于一个数据集,该数据集包含了花卉栽培过程中的多种变量,其中包括数值型变量(如花朵数量、白天条件和夜晚条件)以及分类变量(如肥料类型、品种和栽培制度)。我们使用R语言中的CHAID决策树算法帮助客户对这个数据集进行了分析,并通过可视化展现了影响种花的关键因素。
数据集中的变量解释如下:
数值型变量:
- Flowers(花朵):这是一个数值型变量,表示植物的花朵数量。每个样本有一个具体的数字,用于描述植物生长期间产生的花朵数量。
- Day(白天):这是一个数值型变量,表示植物在白天的相关信息。温度,用于描述植物在白天的环境条件和生长状态。
- Night(夜晚):这是一个数值型变量,表示植物在夜晚的相关信息。夜间温度,用于描述植物在夜晚的环境条件和生长状态。
分类变量:
- Fertilizer(肥料):这是一个分类变量,表示植物所接受的肥料类型,用于描述植物的养分供应情况。
- Variety(品种):这是一个分类变量,表示植物的品种,用于描述不同品种植物的特征和性质。
- Regimem(栽培制度):这是一个分类变量,表示植物的栽培方式或管理制度,用于描述植物的生长环境和栽培方法。
通过对这些变量的解释和研究,我们可以探索花朵数量与其他变量(如白天、夜晚条件、肥料类型、品种和栽培制度)之间的关系,了解不同因素对植物生长和花朵产生的影响。同时,也可以比较不同品种、不同栽培制度和肥料类型下的花朵数量和生长表现,以便在农业、园艺和植物繁殖等领域应用相关知识。
读取数据
df2=read.xlsx("data.xlsx",sheet = 2)
head(df2)
关联分析
cor(df2)
CHAID决策树
CHAID(Chi-square Automatic Interaction Detector)决策树是一种用于创建分类模型的决策树算法。它基于卡方检验来确定在给定的特征和目标变量之间是否存在显著的关联。
CHAID决策树的构建过程是逐步进行的。它首先选择一个作为根节点的特征,然后根据该特征的不同取值将数据集分割成多个子集。接下来,对每个子集重复上述过程,选择一个最佳的特征继续分割。这个过程一直持续到满足停止准则为止,例如达到预定的树深度或子集中的样本数量不足。
随时关注您喜欢的主题
在每次分割过程中,CHAID使用卡方检验来评估特征和目标变量之间的关联程度。它将特征的不同取值作为自变量,目标变量的不同取值作为因变量,计算卡方值。如果卡方值超过了预定的显著性水平,说明该特征与目标变量之间存在显著的关联,可以选择该特征作为分割点。
CHAID决策树的优点是能够处理离散型和连续型的特征变量,并且可以处理多分类问题。它还可以自动选择最佳的分割点,减少了人工选择特征的主观性。然而,CHAID决策树在处理高维数据和处理缺失值方面存在一定的局限性。
#获得训练集
train <- sample(1:nrow(df2), nrow(df2)*0.8)
建立决策树:Flowers
ct = deciionee(Flowers ~ ., data = df2 )
通过决策树模型可以得到以下的决策树,从结果中可以看到day和night两个变量是决策flowers类型的重要变量。
# 预测每一个样本属于每一个类别的概率
tr.pred = predict(ct, newda
第一个样本属于每个类别的概率如下表所示
## [[1]]
## [1] 0.153125000 0.109375000 0.083333333 0.044791667 0.018750000
## [6] 0.018750000 0.007291667 0.002083333 0.001041667 0.003125000
## [11] 0.001041667 0.001041667 0.005208333 0.025000000 0.081250000
## [16] 0.141666667 0.162500000 0.140625000
##
第二个样本属于每个类别的概率如下表所示
## [[2]]
## [1] 0.153125000 0.109375000 0.083333333 0.044791667 0.018750000
## [6] 0.018750000 0.007291667 0.002083333 0.001041667 0.003125000
## [11] 0.001041667 0.001041667 0.005208333 0.025000000 0.081250000
## [16] 0.141666667 0.162500000 0.140625000
##
第三个样本属于每个类别的概率如下表所示
## [[3]]
## [1] 0.153125000 0.109375000 0.083333333 0.044791667 0.018750000
## [6] 0.018750000 0.007291667 0.002083333 0.001041667 0.003125000
## [11] 0.001041667 0.001041667 0.005208333 0.025000000 0.081250000
## [16] 0.141666667 0.162500000 0.140625000
##
得到训练集混淆矩阵
tab=table(tree.pred,df2.test$Flowers)
混淆矩阵为预测flower类别和实际flower类别组成的矩阵,行为预测类别,列为实际类别。从结果可以看到实际预测类别和预测类别符合的个数和程度。
绘制实际类别和预测类别的散点图
图中横线表示y=x的直线,横轴为实际类别,纵轴为预测类别,图中的点越接近横线表示预测的效果越好。
求均方误差
mean((as.numeric(tree.pred) - as.numeric(df2.test$Flowers))^2)
## [1] 74.65885
将flower分成三组5-9,9-13,13-19
将”flower”数量分成三组进行分类,每组的范围如下:
第一组:包括5到9(包括5和9)之间的flower; 第二组:包括9到13(包括9和13)之间的flower; 第三组:包括13到19(包括13和19)之间的flower。
# 建立CHAID决策树=======================Flowers
df2$Flowers=as.numeric(df2$Flowers)
index1=which(df2$Flowers<=5)
index2=which(df2$Flowers<=9 & df2$Flowers>=5)
index3=which(df2$Flowers>=9)
df2$Flowers[index1]=1
df2$Flowers[index2]=2
df2$Flowers[index3]=3
CHAID决策树
plot(ct
table(predict(ct), df2$Flowers)
预测类别概率Estimated class probabilities
tr.pred = predict(ct, newdata=df2.test, type="prob")
tr.pred
## [[1]]
## [1] 2.5125
误差
#rmse
sqrt(mean((as.numeric(tree.pred) - as.numeric(df2.test$Flowers))^2))
## [1] 0.4875514
#nmse
(sum( tree.pred - (df2.test$Flowers))^2)/(mean(tree.pred)*(mean((df2.test$Flowers))))/nrow(tree.pred)
## [1] 0.002686602
每日分享最新报告和数据资料至会员群
关于会员群
- 会员群主要以数据研究、报告分享、数据工具讨论为主;
- 加入后免费阅读、下载相关数据内容,并同步海内外优质数据文档;
- 老用户可九折续费。
- 提供报告PDF代找服务
非常感谢您阅读本文,如需帮助请联系我们!