Python中决策树的分类精度和回归精度的比较
在Python中,决策树既可以用于分类问题,也可以用于回归问题。
在分类问题中,决策树模型通过对数据集的分割来构建一个树形结构,并以此将数据集分成不同的类别。决策树的分类精度可以通过计算模型在测试集上的准确率(accuracy)来评估。以下是一个简单的决策树分类模型的代码示例:
from sklearn import tree # 训练数据 X = [[0, 0], [1, 1]] y = [0, 1] # 创建决策树模型 clf = tree.DecisionTreeClassifier() # 拟合模型 clf = clf.fit(X, y) # 测试数据 test_data = [[1, 0], [0, 1], [1, 1], [0, 0]] # 预测结果 predict_result = clf.predict(test_data) # 输出预测结果 print(predict_result)
在回归问题中,决策树模型通过对数据集的分割来构建一个树形结构,并以此预测数据集中的连续变量。决策树的回归精度可以通过计算模型在测试集上的均方误差(MSE)来评估。以下是一个简单的决策树回归模型的代码示例:
from sklearn import tree # 训练数据 X = [[0, 0], [1, 1]] y = [0, 1] # 创建决策树模型 clf = tree.DecisionTreeRegressor() # 拟合模型 clf = clf.fit(X, y) # 测试数据 test_data = [[1, 0], [0, 1], [1, 1], [0, 0]] # 预测结果 predict_result = clf.predict(test_data) # 输出预测结果 print(predict_result)
在这两个示例中,训练数据、测试数据和预测结果都是数值型数据,因此没有使用到任何字符串型数据。
相关文章