【机器学习】鸢尾花分类:机器学习领域经典入门项目实战

2024-06-14 07:52

本文主要是介绍【机器学习】鸢尾花分类:机器学习领域经典入门项目实战,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

学习机器学习,就像学习任何新技能一样,最好的方法之一就是通过实战来巩固理论知识。鸢尾花分类项目是一个经典的入门项目,它不仅简单易懂,还能帮助我们掌握机器学习的基本步骤和方法。

鸢尾花数据集(Iris Dataset)早在1936年就由英国生物学家 Ronald A. Fisher 引入。这个数据集包含了150个鸢尾花样本,每个样本有4个特征(花萼长度、花萼宽度、花瓣长度和花瓣宽度)和1个目标变量(鸢尾花的品种)。这个数据集常用于教学和练习,是机器学习领域的 “Hello World” 项目。

本项目旨在使用鸢尾花数据集,通过数据准备、数据预处理、数据分割、模型选择、模型训练、模型评估、模型优化和模型部署等步骤,全面展示机器学习的基本流程。我们将使用 Python 和 scikit-learn 库,通过实际代码演示如何完成一个完整的机器学习项目。希望这篇文章能够帮助初学者快速上手机器学习,理解和掌握关键的技术和方法。


文章目录

      • 1、项目介绍
        • 1.1、项目背景
        • 1.2、项目目标
        • 1.3、项目步骤
      • 2、项目实战
        • 2.1、数据准备
        • 2.2、数据可视化
        • 2.3、数据预处理
        • 2.4、数据分割
        • 2.5、选择模型
        • 2.6、训练模型
        • 2.7、评估模型
        • 2.8、模型优化
        • 2.9、模型部署
      • 3、项目源码


1、项目介绍

鸢尾花分类项目是机器学习领域中一个经典的入门项目,旨在通过分类算法将不同品种的鸢尾花进行分类。这个项目常用于教学和练习机器学习的基本概念。

1.1、项目背景

鸢尾花数据集(Iris Dataset)由英国生物学家和统计学家 Ronald A. Fisher 于 1936 年在他的论文《The use of multiple measurements in taxonomic problems》中首次引入。这个数据集包含了 150 个鸢尾花样本,每个样本有 4 个特征和 1 个目标变量。

  • 特征包括:花萼长度(sepal length)、花萼宽度(sepal width)、花瓣长度(petal length)和 花瓣宽度(petal width);
  • 目标变量:鸢尾花的品种(有三种类别:山鸢尾(Iris Setosa)、变色鸢尾(Iris Versicolour)以及 维吉尼亚鸢尾(Iris Virginica))。
1.2、项目目标

使用机器学习算法,根据鸢尾花的四个特征来预测其所属的品种。

1.3、项目步骤

以下是机器学习大致的基本步骤,我们后面实战部分也将是参考此步骤来进行的:

  1. 数据准备:获取并准备好数据集。在鸢尾花数据集中,这包括加载数据,了解数据的结构,检查是否有缺失值等;
  2. 数据预处理:对数据进行清洗和转换,如处理缺失值、标准化或归一化特征等;
  3. 数据分割:将数据分成训练集和测试集。训练集用于训练模型,测试集用于评估模型的性能;
  4. 选择模型:选择合适的机器学习算法来训练模型,如K近邻(KNN)、决策树、逻辑回归、支持向量机(SVM)等;
  5. 训练模型:使用训练数据来训练模型;
  6. 评估模型:使用测试数据评估模型的性能,查看模型的准确率、混淆矩阵等评估指标;
  7. 模型优化:根据评估结果调整模型参数,优化模型性能;
  8. 模型部署:将训练好的模型应用到实际问题中进行预测。

2、项目实战

2.1、数据准备

鸢尾花数据集作为机器学习领域中最著名的数据集之一,常用于入门级教学和算法验证。

我们可以通过以下地址对该数据集进行下载:https://archive.ics.uci.edu/dataset/53/iris。下载后,导入:

import pandas as pd# 指定列名
feature_names = ["sepal length (cm)","sepal width (cm)","petal length (cm)","petal width (cm)"
]# 加载数据
data = pd.read_csv('path/to/iris.data', header=None, names=feature_names + ['class'])# 查看数据
print(data.head())

或者,我们也可以使用 scikit-learn 库自带的标准数据集进行导入 from sklearn.datasets import load_iris

import pandas as pd
from sklearn.datasets import load_iris# 加载数据集
iris = load_iris()                                                              # 使用 load_iris 函数加载鸢尾花数据集,返回一个 Bunch 对象
data = pd.DataFrame(data=iris.data, columns=iris.feature_names)                 # 将数据集的特征数据转换为 pandas DataFrame,并指定列名为特征名称
data['target'] = iris.target                                                    # 在 DataFrame 中添加一列 'target',对应每个样本的目标标签
data['target_names'] = data['target'].apply(lambda x: iris.target_names[x])     # 添加一列 'target_names',通过映射 'target' 列的值来获取对应的目标名称# 查看数据
print(data.head())      # 查看数据集前五行数据
print('-')
print(data.info())      # 查看数据集的基本信息
print('-')
print(data.describe())  # 查看数据集的统计信息

打印结果:

   sepal length (cm)  sepal width (cm)  ...  target  target_names
0                5.1               3.5  ...       0        setosa
1                4.9               3.0  ...       0        setosa
2                4.7               3.2  ...       0        setosa
3                4.6               3.1  ...       0        setosa
4                5.0               3.6  ...       0        setosa[5 rows x 6 columns]
-
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 150 entries, 0 to 149
Data columns (total 6 columns):#   Column             Non-Null Count  Dtype  
---  ------             --------------  -----  0   sepal length (cm)  150 non-null    float641   sepal width (cm)   150 non-null    float642   petal length (cm)  150 non-null    float643   petal width (cm)   150 non-null    float644   target             150 non-null    int64  5   target_names       150 non-null    object 
dtypes: float64(4), int64(1), object(1)
memory usage: 7.2+ KB
None
-sepal length (cm)  sepal width (cm)  ...  petal width (cm)      target
count         150.000000        150.000000  ...        150.000000  150.000000
mean            5.843333          3.057333  ...          1.199333    1.000000
std             0.828066          0.435866  ...          0.762238    0.819232
min             4.300000          2.000000  ...          0.100000    0.000000
25%             5.100000          2.800000  ...          0.300000    0.000000
50%             5.800000          3.000000  ...          1.300000    1.000000
75%             6.400000          3.300000  ...          1.800000    2.000000
max             7.900000          4.400000  ...          2.500000    2.000000[8 rows x 5 columns]
2.2、数据可视化

通过数据可视化手段,探索数据的分布和特征之间的关系。使用 seabornpairplot 函数绘制特征之间的分布图,以便于观察数据的分布情况和不同类别之间的关系。

import seaborn as sns
import matplotlib.pyplot as plt# 绘制特征分布图
sns.pairplot(data, hue='target', markers=["o", "s", "D"])  # 使用 seaborn 库的 pairplot 函数绘制散点图矩阵,根据 'target' 列着色,并使用不同的标记
plt.show()                                                 # 显示图形

打印结果:

image-20240613150903410

2.3、数据预处理

对数据进行清洗和转换,如处理缺失值、标准化或归一化特征等。

# 检查是否有缺失值
print(data.isnull().sum())  # 打印每列的缺失值数量,以检查数据集中是否存在缺失值# 标准化特征值
scaler = StandardScaler()                                                  # 创建一个 StandardScaler 对象
data[iris.feature_names] = scaler.fit_transform(data[iris.feature_names])  # 对特征列进行标准化处理,使其均值为 0,标准差为 1# 查看标准化后的数据
print(data.head())  # 打印标准化后的数据集的前五行,查看标准化效果

打印结果:

       sepal length (cm)  sepal width (cm)  ...  petal width (cm)      target
count         150.000000        150.000000  ...        150.000000  150.000000
mean            5.843333          3.057333  ...          1.199333    1.000000
std             0.828066          0.435866  ...          0.762238    0.819232
min             4.300000          2.000000  ...          0.100000    0.000000
25%             5.100000          2.800000  ...          0.300000    0.000000
50%             5.800000          3.000000  ...          1.300000    1.000000
75%             6.400000          3.300000  ...          1.800000    2.000000
max             7.900000          4.400000  ...          2.500000    2.000000[8 rows x 5 columns]
-
sepal length (cm)    0
sepal width (cm)     0
petal length (cm)    0
petal width (cm)     0
target               0
target_names         0
dtype: int64sepal length (cm)  sepal width (cm)  ...  target  target_names
0          -0.900681          1.019004  ...       0        setosa
1          -1.143017         -0.131979  ...       0        setosa
2          -1.385353          0.328414  ...       0        setosa
3          -1.506521          0.098217  ...       0        setosa
4          -1.021849          1.249201  ...       0        setosa[5 rows x 6 columns]
2.4、数据分割

将数据分成训练集和测试集。训练集用于训练模型,测试集用于评估模型的性能。

分割数据集的主要目的是为了评估模型的性能。通过将数据集划分为训练集和测试集,我们可以在训练集上训练模型,并在测试集上评估模型的泛化能力。这有助于检测模型是否过拟合或欠拟合,并提供对模型性能的更真实的评估。

from sklearn.model_selection import train_test_split# 分割数据集
X = data[iris.feature_names]  # 特征数据,包含所有特征列
y = data['target']  # 目标数据,包含目标标签
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3,random_state=42)  # 将数据集按 70% 训练集和 30% 测试集进行分割,设置随机种子为 42 以确保可重复性# 查看分割后的数据集大小
print(f"训练集大小: {X_train.shape[0]}, 测试集大小: {X_test.shape[0]}")  # 打印训练集和测试集的大小

打印结果:

训练集大小: 105, 测试集大小: 45
2.5、选择模型

选择合适的机器学习算法来训练模型,如 K近邻(KNN)、决策树、逻辑回归、支持向量机(SVM)等。

这里选择 K 近邻(KNN)算法。

from sklearn.neighbors import KNeighborsClassifier# 初始化 KNN 分类器
knn = KNeighborsClassifier(n_neighbors=3)  # 创建一个 K 近邻分类器对象,设置近邻数为 3
2.6、训练模型

使用训练数据来训练模型。

# 训练模型
knn.fit(X_train, y_train)     # 使用训练数据训练 K 近邻分类器模型
2.7、评估模型

使用测试数据评估模型的性能,查看模型的准确率、混淆矩阵等评估指标。

评估指标解释:

  1. 准确率(Accuracy):正确预测的样本数占总样本数的比例;
  2. 分类报告(Classification Report),包括精确率、召回率、F1 分数和支持:
    • 精确率(Precision):正确预测的正样本数占预测为正样本数的比例;
    • 召回率(Recall):正确预测的正样本数占实际正样本数的比例;
    • F1 分数(F1-score):精确率和召回率的调和平均数;
    • 支持(Support):实际样本中每个类别的数量;
  3. 混淆矩阵(Confusion Matrix):显示实际标签和预测标签的分布,帮助理解分类模型的错误类型。
pfrom sklearn.metrics import accuracy_score, classification_report, confusion_matrix# 预测测试集
y_pred = knn.predict(X_test)  # 使用训练好的模型对测试数据进行预测,得到预测标签# 评估模型
print(f"Accuracy: {accuracy_score(y_test, y_pred)}")                      # 计算并打印模型在测试集上的准确率
print('-')
print("Classification Report:\n", classification_report(y_test, y_pred))  # 打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix:\n", confusion_matrix(y_test, y_pred))            # 打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')

打印结果:

Accuracy: 1.0
-
Classification Report:precision    recall  f1-score   support0       1.00      1.00      1.00        191       1.00      1.00      1.00        132       1.00      1.00      1.00        13accuracy                           1.00        45macro avg       1.00      1.00      1.00        45
weighted avg       1.00      1.00      1.00        45-
Confusion Matrix:[[19  0  0][ 0 13  0][ 0  0 13]]
2.8、模型优化

根据评估结果调整模型参数,优化模型性能。例如,通过网格搜索优化 KNN 模型的参数。

PS:网格搜索是一种系统化的方法,用于调整模型的超参数以提高模型的性能。通过交叉验证和不同参数组合的评估,网格搜索可以找到最佳的参数配置,从而提高模型的预测准确性和泛化能力。

from sklearn.model_selection import GridSearchCV# 定义参数范围
param_grid = {'n_neighbors': range(1, 20)}  # 创建一个参数字典,设置 'n_neighbors' 参数的取值范围为 1 到 19# 网格搜索
grid_search = GridSearchCV(KNeighborsClassifier(), param_grid, cv=5)  # 创建一个 GridSearchCV 对象,使用 KNeighborsClassifier 和定义的参数范围,设置交叉验证折数为 5
grid_search.fit(X_train, y_train)                                     # 使用训练数据进行网格搜索,以找到最佳参数组合# 最优参数
print(f"Best parameters: {grid_search.best_params_}")  # 打印通过网格搜索找到的最优参数
print('-')# 使用最优参数训练模型
knn_best = grid_search.best_estimator_  # 获取使用最优参数训练的最佳模型
y_pred_best = knn_best.predict(X_test)  # 使用最佳模型对测试数据进行预测# 评估模型
print(f"Accuracy(best): {accuracy_score(y_test, y_pred)}")                      # (优化后)计算并打印模型在测试集上的准确率
print('-')
print("Classification Report(best):\n", classification_report(y_test, y_pred))  # (优化后)打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix(best):\n", confusion_matrix(y_test, y_pred))            # (优化后)打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')

打印结果:

Best parameters: {'n_neighbors': 1}
-
Accuracy(best): 1.0
-
Classification Report(best):precision    recall  f1-score   support0       1.00      1.00      1.00        191       1.00      1.00      1.00        132       1.00      1.00      1.00        13accuracy                           1.00        45macro avg       1.00      1.00      1.00        45
weighted avg       1.00      1.00      1.00        45-
Confusion Matrix(best):[[19  0  0][ 0 13  0][ 0  0 13]]
2.9、模型部署

将训练好的模型应用到实际问题中进行预测。例如,预测新的鸢尾花样本的类别。

PS:为什么要标准化新样本?标准化新样本是必要的步骤,因为模型在训练时使用的是标准化后的数据。如果新样本没有经过相同的标准化处理,特征值的尺度可能会与训练数据不同,从而导致预测不准确。通过使用相同的 StandardScaler 对新样本进行标准化,可以确保特征值在相同的尺度上,保证模型的预测效果。

# 新样本数据
new_samples = [[5.1, 3.5, 1.4, 0.2], [6.7, 3.0, 5.2, 2.3]]# 将新样本数据转换为 DataFrame,并指定特征名称
new_samples_df = pd.DataFrame(new_samples, columns=iris.feature_names)# 标准化新样本
new_samples_scaled = scaler.transform(new_samples_df)  # 使用之前的标准化器 scaler 对新样本进行标准化处理,使其与训练数据具有相同的尺度# 预测新样本的类别
predictions = knn_best.predict(new_samples_scaled)  # 使用最佳模型 knn_best 对标准化后的新样本进行类别预测
print(f"新样本的预测类别: {predictions}")  # 打印新样本的预测类别

打印结果:

新样本的预测类别: [0 2]

打印结果显示新样本的预测类别分别为 [0, 2],即第一个新样本被预测为类别 0,第二个新样本被预测为类别 2。结合鸢尾花数据集的类别名称,这意味着:

  • 类别 0 对应的是 Iris-setosa
  • 类别 2 对应的是 Iris-virginica

3、项目源码

import matplotlib.pyplot as plt
import pandas as pd
import seaborn as snsfrom sklearn.datasets import load_iris
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split, GridSearchCV
from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix# 加载数据集
iris = load_iris()  # 使用 load_iris 函数加载鸢尾花数据集,返回一个 Bunch 对象
data = pd.DataFrame(data=iris.data, columns=iris.feature_names)  # 将数据集的特征数据转换为 pandas DataFrame,并指定列名为特征名称
data['target'] = iris.target  # 在 DataFrame 中添加一列 'target',对应每个样本的目标标签
data['target_names'] = data['target'].apply(lambda x: iris.target_names[x])  # 添加一列 'target_names',通过映射 'target' 列的值来获取对应的目标名称# 查看数据
print(data.head())  # 查看数据集前五行数据
print('-')
print(data.info())  # 查看数据集的基本信息
print('-')
print(data.describe())  # 查看数据集的统计信息
print('-')# 绘制特征分布图
sns.pairplot(data, hue='target', markers=["o", "s", "D"])  # 使用 seaborn 库的 pairplot 函数绘制散点图矩阵,根据 'target' 列着色,并使用不同的标记
plt.show()  # 显示图形# 检查是否有缺失值
print(data.isnull().sum())  # 打印每列的缺失值数量,以检查数据集中是否存在缺失值# 标准化特征值
scaler = StandardScaler()  # 创建一个 StandardScaler 对象
data[iris.feature_names] = scaler.fit_transform(data[iris.feature_names])  # 对特征列进行标准化处理,使其均值为 0,标准差为 1# 查看标准化后的数据
print(data.head())  # 打印标准化后的数据集的前五行,查看标准化效果
print('-')# 分割数据集
X = data[iris.feature_names]  # 特征数据,包含所有特征列
y = data['target']  # 目标数据,包含目标标签
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3,random_state=42)  # 将数据集按 70% 训练集和 30% 测试集进行分割,设置随机种子为 42 以确保可重复性# 查看分割后的数据集大小
print(f"训练集大小: {X_train.shape[0]}, 测试集大小: {X_test.shape[0]}")  # 打印训练集和测试集的大小
print('-')# 初始化 KNN 分类器
knn = KNeighborsClassifier(n_neighbors=3)  # 创建一个 K 近邻分类器对象,设置近邻数为 3# 训练模型
knn.fit(X_train, y_train)     # 使用训练数据训练 K 近邻分类器模型# 预测测试集
y_pred = knn.predict(X_test)  # 使用训练好的模型对测试数据进行预测,得到预测标签# 评估模型
print(f"Accuracy: {accuracy_score(y_test, y_pred)}")                      # 计算并打印模型在测试集上的准确率
print('-')
print("Classification Report:\n", classification_report(y_test, y_pred))  # 打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix:\n", confusion_matrix(y_test, y_pred))            # 打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')# 定义参数范围
param_grid = {'n_neighbors': range(1, 20)}  # 创建一个参数字典,设置 'n_neighbors' 参数的取值范围为 1 到 19# 网格搜索
grid_search = GridSearchCV(KNeighborsClassifier(), param_grid, cv=5)  # 创建一个 GridSearchCV 对象,使用 KNeighborsClassifier 和定义的参数范围,设置交叉验证折数为 5
grid_search.fit(X_train, y_train)                                     # 使用训练数据进行网格搜索,以找到最佳参数组合# 最优参数
print(f"Best parameters: {grid_search.best_params_}")  # 打印通过网格搜索找到的最优参数
print('-')# 使用最优参数训练模型
knn_best = grid_search.best_estimator_  # 获取使用最优参数训练的最佳模型
y_pred_best = knn_best.predict(X_test)  # 使用最佳模型对测试数据进行预测# 评估模型
print(f"Accuracy(best): {accuracy_score(y_test, y_pred)}")                      # (优化后)计算并打印模型在测试集上的准确率
print('-')
print("Classification Report(best):\n", classification_report(y_test, y_pred))  # (优化后)打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix(best):\n", confusion_matrix(y_test, y_pred))            # (优化后)打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')# 新样本数据
new_samples = [[5.1, 3.5, 1.4, 0.2], [6.7, 3.0, 5.2, 2.3]]  # 定义新的样本数据,每个样本包含四个特征值# 将新样本数据转换为 DataFrame,并指定特征名称
new_samples_df = pd.DataFrame(new_samples, columns=iris.feature_names)# 标准化新样本
new_samples_scaled = scaler.transform(new_samples_df)  # 使用之前的标准化器 scaler 对新样本进行标准化处理,使其与训练数据具有相同的尺度# 预测新样本的类别
predictions = knn_best.predict(new_samples_scaled)  # 使用最佳模型 knn_best 对标准化后的新样本进行类别预测
print(f"新样本的预测类别: {predictions}")              # 打印新样本的预测类别

通过这段代码,我们展示了如何加载鸢尾花数据集、进行标准化处理、分割数据集、使用网格搜索优化 K 近邻分类器、训练模型、评估模型以及对新样本进行预测。最终的预测结果 [0, 2] 表明第一个新样本被预测为 Iris-setosa,第二个新样本被预测为 Iris-virginica,这验证了整个机器学习过程的正确性和有效性。

这篇关于【机器学习】鸢尾花分类:机器学习领域经典入门项目实战的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1059809

相关文章

Golang操作DuckDB实战案例分享

《Golang操作DuckDB实战案例分享》DuckDB是一个嵌入式SQL数据库引擎,它与众所周知的SQLite非常相似,但它是为olap风格的工作负载设计的,DuckDB支持各种数据类型和SQL特性... 目录DuckDB的主要优点环境准备初始化表和数据查询单行或多行错误处理和事务完整代码最后总结Duck

Python中的随机森林算法与实战

《Python中的随机森林算法与实战》本文详细介绍了随机森林算法,包括其原理、实现步骤、分类和回归案例,并讨论了其优点和缺点,通过面向对象编程实现了一个简单的随机森林模型,并应用于鸢尾花分类和波士顿房... 目录1、随机森林算法概述2、随机森林的原理3、实现步骤4、分类案例:使用随机森林预测鸢尾花品种4.1

Python 中 requests 与 aiohttp 在实际项目中的选择策略详解

《Python中requests与aiohttp在实际项目中的选择策略详解》本文主要介绍了Python爬虫开发中常用的两个库requests和aiohttp的使用方法及其区别,通过实际项目案... 目录一、requests 库二、aiohttp 库三、requests 和 aiohttp 的比较四、requ

SpringBoot项目启动后自动加载系统配置的多种实现方式

《SpringBoot项目启动后自动加载系统配置的多种实现方式》:本文主要介绍SpringBoot项目启动后自动加载系统配置的多种实现方式,并通过代码示例讲解的非常详细,对大家的学习或工作有一定的... 目录1. 使用 CommandLineRunner实现方式:2. 使用 ApplicationRunne

使用IntelliJ IDEA创建简单的Java Web项目完整步骤

《使用IntelliJIDEA创建简单的JavaWeb项目完整步骤》:本文主要介绍如何使用IntelliJIDEA创建一个简单的JavaWeb项目,实现登录、注册和查看用户列表功能,使用Se... 目录前置准备项目功能实现步骤1. 创建项目2. 配置 Tomcat3. 项目文件结构4. 创建数据库和表5.

Python项目打包部署到服务器的实现

《Python项目打包部署到服务器的实现》本文主要介绍了PyCharm和Ubuntu服务器部署Python项目,包括打包、上传、安装和设置自启动服务的步骤,具有一定的参考价值,感兴趣的可以了解一下... 目录一、准备工作二、项目打包三、部署到服务器四、设置服务自启动一、准备工作开发环境:本文以PyChar

多模块的springboot项目发布指定模块的脚本方式

《多模块的springboot项目发布指定模块的脚本方式》该文章主要介绍了如何在多模块的SpringBoot项目中发布指定模块的脚本,作者原先的脚本会清理并编译所有模块,导致发布时间过长,通过简化脚本... 目录多模块的springboot项目发布指定模块的脚本1、不计成本地全部发布2、指定模块发布总结多模

SpringBoot项目删除Bean或者不加载Bean的问题解决

《SpringBoot项目删除Bean或者不加载Bean的问题解决》文章介绍了在SpringBoot项目中如何使用@ComponentScan注解和自定义过滤器实现不加载某些Bean的方法,本文通过实... 使用@ComponentScan注解中的@ComponentScan.Filter标记不加载。@C

Golang使用minio替代文件系统的实战教程

《Golang使用minio替代文件系统的实战教程》本文讨论项目开发中直接文件系统的限制或不足,接着介绍Minio对象存储的优势,同时给出Golang的实际示例代码,包括初始化客户端、读取minio对... 目录文件系统 vs Minio文件系统不足:对象存储:miniogolang连接Minio配置Min

javafx 如何将项目打包为 Windows 的可执行文件exe

《javafx如何将项目打包为Windows的可执行文件exe》文章介绍了三种将JavaFX项目打包为.exe文件的方法:方法1使用jpackage(适用于JDK14及以上版本),方法2使用La... 目录方法 1:使用 jpackage(适用于 JDK 14 及更高版本)方法 2:使用 Launch4j(