[英]How to create a confusion matrix for a decision tree model
我在创建混淆矩阵以将模型预测与实际值进行比较时遇到一些困难。 我的数据集包含159个解释变量,我的目标称为“分类”。
#Load Data
df <- read.csv("https://d396qusza40orc.cloudfront.net/predmachlearn/pml-training.csv", na.strings=c("NA","#DIV/0!",""))
#Split into training and validation
index <- createDataPartition(df$classe, times=1, p=0.5)[[1]]
training <- df[index, ]
validation <- df[-index, ]
#Model
decisionTreeModel <- rpart(classe ~ ., data=training, method="class", cp =0.5)
#Predict
pred1 <- predict(decisionTreeModel, validation)
#Check model performance
confusionMatrix(validation$classe, pred1)
从上面的代码生成以下错误信息:
Error in confusionMatrix.default(validation$classe, pred1) :
The data must contain some levels that overlap the reference.
我认为这可能与预测函数生成的pred1变量有关,它是一个包含5列的矩阵,而validation $ classe是一个包含5个级别的因子。 关于如何解决这个问题的任何想法?
提前致谢
您的预测为您提供了每个班级的概率矩阵。 如果您希望返回“优胜者”(预测类),请用以下代码替换预测行:
pred1 <- predict(decisionTreeModel, validation, type="class")
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.