本文主要是介绍XGBoost学习,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
XGBoost广泛应用于推荐系统、信用评分、疾病预测等多个领域。通过实例分析,我们可以直观感受到其在实际问题解决中的强大威力。
下面是一个使用Python实现的简单XGBoost分类任务示例,包括数据预处理、模型训练、评估和预测的基本步骤。此示例使用了著名的鸢尾花(Iris)数据集,该数据集可以直接从sklearn库获取。代码仅供参考~
# 导入所需库
import xgboost as xgb
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score# 加载鸢尾花数据集
iris = datasets.load_iris()
X = iris.data
y = iris.target# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)# 转换为DMatrix格式,XGBoost的原生数据结构,可以提高效率
dtrain = xgb.DMatrix(X_train, label=y_train)
dtest = xgb.DMatrix(X_test, label=y_test)# 设置XGBoost参数
param = {'eta': 0.3, 'max_depth': 3, 'objective': 'multi:softmax', # 多分类问题'num_class': 3, # 类别数'eval_metric': 'mlogloss' # 多分类的评价指标
}# 训练模型
bst = xgb.train(param, dtrain, num_boost_round=10)# 预测
preds = bst.predict(dtest)
pred_labels = preds.argmax(axis=1) # 获取概率最大的类别作为预测类别# 计算准确率
accuracy = accuracy_score(y_test, pred_labels)
print("Accuracy: %.2f%%" % (accuracy * 100.0))
————————————————版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。原文链接:https://blog.csdn.net/qq_44214428/article/details/139537082
这篇关于XGBoost学习的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!