深度学习 Day 14——利用卷神经网络实现运动鞋品牌识别

2024-02-24 03:50

本文主要是介绍深度学习 Day 14——利用卷神经网络实现运动鞋品牌识别,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

深度学习 Day 14——利用卷神经网络实现运动鞋品牌识别

文章目录

  • 深度学习 Day 14——利用卷神经网络实现运动鞋品牌识别
    • 一、前言
    • 二、我的环境
    • 三、前期工作
      • 1、导入依赖项并设置GPU
      • 2、导入数据集
      • 3、查看数据集
    • 四、数据预处理
      • 1、加载数据
      • 2、检查数据并可视化数据
      • 3、配置数据集
    • 五、构建CNN网络
    • 六、训练模型
      • 1、什么是动态学习率?
      • 2、如何设置学习率大小?
      • 3、设置动态学习率、损失函数、优化器,指标为准确率。
      • 4、早停与保存最佳模型参数
      • 5、设置模型训练
    • 七、模型评估
      • 1、绘制Loss图和Accuracy图
      • 2、指定图片进行预测
    • 八、调整参数并对比结果
      • 1、将学习率调整为1e-4
      • 2、将衰变率提高到0.96
      • 3、将衰变步数提高到32
    • 九、最后我想说

一、前言

  • 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
  • 🍦 参考文章:365天深度学习训练营-第5周:运动鞋品牌识别(训练营内部成员可读)
  • 🍖 原作者:K同学啊

在这里插入图片描述

本期深度学习,我们依旧是学习有关CNN的相关知识,比起以往,我们这一期博客将引入两个新的概念——学习率和早停。

其中很多步骤都和之前的项目类似,重点就在于后续的学习率和早停的设置。

好啦,我们开始今天的深度学习!

二、我的环境

  • 电脑系统:Windows 11
  • 语言环境:Python 3.8.5
  • 编译器:DataSpell 2022.2
  • 深度学习环境:TensorFlow 2.3.4
  • 显卡及显存:RTX 3070 8G

三、前期工作

1、导入依赖项并设置GPU

导入依赖项:

from tensorflow       import keras
from tensorflow.keras import layers,models
import os, PIL, pathlib
import matplotlib.pyplot as plt
import tensorflow        as tf

和之前一样,如果你GPU很好就只使用GPU进行训练,如果GPU不行就推荐使用CPU训练加GPU加速。

只使用GPU:

if gpus:gpu0 = gpus[0]                                        #如果有多个GPU,仅使用第0个GPUtf.config.experimental.set_memory_growth(gpu0, True)  #设置GPU显存用量按需使用tf.config.set_visible_devices([gpu0],"GPU")

使用CPU+GPU:

os.environ["CUDA_VISIBLE_DEVICES"] = "-1"

2、导入数据集

data_dir = "E:\深度学习\data\Day14"
data_dir = pathlib.Path(data_dir)

3、查看数据集

查看数据集内有多少张图片:

image_count = len(list(data_dir.glob('*/*/*.jpg')))print("图片总数为:",image_count)

运行的结果是:

图片总数为: 578

从数据集内返回一张图片查看一下:

roses = list(data_dir.glob('train/nike/*.jpg'))
PIL.Image.open(str(roses[0]))

在这里插入图片描述

四、数据预处理

1、加载数据

我们使用image_dataset_from_directory方法将我们本地的数据加载到tf.data.Dataset

中,并设置训练图片模型参数:

batch_size = 32
img_height = 224
img_width = 224

在上一期深度学习博客中我们讲诉了训练集、验证集和测试集的含义以及三者的关系,如果不了解的话,大家可以移步去看看,或者上网自己查阅一下:

深度学习 Day13——利用卷神经网络实现猴痘病的识别

接下来加载数据:

train_ds = tf.keras.preprocessing.image_dataset_from_directory("E:/深度学习/data/Day14/train/",seed=123,image_size=(img_height, img_width),batch_size=batch_size)val_ds = tf.keras.preprocessing.image_dataset_from_directory("E:/深度学习/data/Day14/test/",seed=123,image_size=(img_height, img_width),batch_size=batch_size)
Found 502 files belonging to 2 classes.
Found 76 files belonging to 2 classes.

这里也可以看到我们两个数据分别有多少文件。

然后我们再利用class_name输出我们本地数据集的标签,标签也就是对应数据所在的文件目录名:

['adidas', 'nike']

2、检查数据并可视化数据

在可视化数据前,我们来检查一下我们的数据信息是否是正确的:

for image_batch, labels_batch in train_ds:print(image_batch.shape)print(labels_batch.shape)break
(32, 224, 224, 3)
(32,)

可以看出这是一批180×180×3的32张图片,然后我们将数据进行可视化看看:

plt.figure(figsize=(20, 10))for images, labels in train_ds.take(1):for i in range(20):ax = plt.subplot(5, 10, i + 1)plt.imshow(images[i].numpy().astype("uint8"))plt.title(class_names[labels[i]])plt.axis("off")

在这里插入图片描述

3、配置数据集

AUTOTUNE = tf.data.experimental.AUTOTUNEtrain_ds = train_ds.cache().shuffle(1000).prefetch(buffer_size=AUTOTUNE)
val_ds = val_ds.cache().prefetch(buffer_size=AUTOTUNE)

五、构建CNN网络

num_classes = 2model = models.Sequential([layers.experimental.preprocessing.Rescaling(1./255, input_shape=(img_height, img_width, 3)),layers.Conv2D(16, (3, 3), activation='relu', input_shape=(img_height, img_width, 3)), # 卷积层1,卷积核3*3  layers.AveragePooling2D((2, 2)),               # 池化层1,2*2采样layers.Conv2D(32, (3, 3), activation='relu'),  # 卷积层2,卷积核3*3layers.AveragePooling2D((2, 2)),               # 池化层2,2*2采样layers.Dropout(0.3),  layers.Conv2D(64, (3, 3), activation='relu'),  # 卷积层3,卷积核3*3layers.Dropout(0.3),  layers.Flatten(),                       # Flatten层,连接卷积层与全连接层layers.Dense(128, activation='relu'),   # 全连接层,特征进一步提取layers.Dense(num_classes)               # 输出层,输出预期结果
])model.summary()  # 打印网络结构

打印出来的结果是:

Model: "sequential"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
rescaling (Rescaling)        (None, 224, 224, 3)       0         
_________________________________________________________________
conv2d (Conv2D)              (None, 222, 222, 16)      448       
_________________________________________________________________
average_pooling2d (AveragePo (None, 111, 111, 16)      0         
_________________________________________________________________
conv2d_1 (Conv2D)            (None, 109, 109, 32)      4640      
_________________________________________________________________
average_pooling2d_1 (Average (None, 54, 54, 32)        0         
_________________________________________________________________
dropout (Dropout)            (None, 54, 54, 32)        0         
_________________________________________________________________
conv2d_2 (Conv2D)            (None, 52, 52, 64)        18496     
_________________________________________________________________
dropout_1 (Dropout)          (None, 52, 52, 64)        0         
_________________________________________________________________
flatten (Flatten)            (None, 173056)            0         
_________________________________________________________________
dense (Dense)                (None, 128)               22151296  
_________________________________________________________________
dense_1 (Dense)              (None, 2)                 258       
=================================================================
Total params: 22,175,138
Trainable params: 22,175,138
Non-trainable params: 0
_________________________________________________________________

到这里,前面的步骤跟我们前面的几篇博客都是类似操作,在这里我就不再做过多说明。

六、训练模型

前面的都类似,接下来我们将学习新的内容,在上一期博客中有一个拔高选项那就是设置动态学习率,本期我们就来了解学习一下什么是动态学习率以及如何设置动态学习率。

1、什么是动态学习率?

学习率是一个超参数,它控制每次更新模型权重时响应估计误差改变模型的程度。选择学习率具有挑战性,因为值太小可能会导致训练过程过长,可能会卡住,而值太大可能会导致学习一组次优的权重太快或训练过程不稳定。

学习率是配置神经网络时最重要的超参数。因此,了解如何研究学习率对模型性能的影响以及建立关于学习率对模型行为的动态的直觉至关重要。

2、如何设置学习率大小?

这里我们给出一张表来对比一下学习率大小的影响:

学习率大学习率小
学习速度
使用时间点刚开始训练时一定轮数过后
优点加快学习速率,有助于跳出局部最优值有助于模型收敛、模型细化,提高模型精度
缺点导致模型训练不收敛,单单使用大学习率容易导致模型不精确很难跳出局部最优值,收敛缓慢

在训练过程中,一般根据训练轮数设置动态变化的学习率。

  • 刚开始训练时:学习率以 0.01 ~ 0.001 为宜。
  • 一定轮数过后:逐渐减缓。
  • 接近训练结束:学习速率的衰减应该在100倍以上。

注意:这里设置的动态学习率为:指数衰减型(ExponentialDecay)。在每一个epoch开始前,学习率(learning_rate)都将会重置为初始学习率(initial_learning_rate),然后再重新开始衰减。计算公式如下:

learning_rate = initial_learning_rate * decay ^ (step / decay_steps)

网上有很多有关动态学习率的介绍,大家可以去看看。

3、设置动态学习率、损失函数、优化器,指标为准确率。

# 设置初始学习率
initial_learning_rate = 0.1lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay(initial_learning_rate, decay_steps=10,      # 敲黑板!!!这里是指 steps,不是指epochsdecay_rate=0.92,     # lr经过一次衰减就会变成 decay_rate*lrstaircase=True)# 将指数衰减学习率送入优化器
optimizer = tf.keras.optimizers.Adam(learning_rate=lr_schedule)model.compile(optimizer=optimizer,loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),metrics=['accuracy'])

4、早停与保存最佳模型参数

另外我们再了解学习一下有关早停的相关知识。

这里我们来了解一下其中的早停策略之一EarlyStopping

EarlyStopping是用于提前停止训练的callbacks,callbacks用于指定在每个epoch开始和结束的时候进行哪种特定操作。简而言之,就是可以达到当测试集上的loss不再减小(即减小的程度小于某个阈值)的时候停止继续训练。

EarlyStopping相关原理就是将数据分为训练集和测试集,每个epoch结束后(或每N个epoch后): 在测试集上获取测试结果,随着epoch的增加,如果在测试集上发现测试误差上升,则停止训练,将停止之后的权重作为网络的最终参数。

在这里插入图片描述

它的函数模型是:

tf.keras.callbacks.EarlyStopping(monitor="acc",min_delta=0,patience=0,verbose=0,mode="max",baseline=None,restore_best_weights=False,
)

其中的参数说明:

参数说明
monitor监控的数据接口,有’acc’,’val_acc’,’loss’,’val_loss’等等。正常情况下如果有验证集,就用’val_acc’或者’val_loss’
min_delta就’auto’, ‘min’, ‘,max’三个可能。如果知道是要上升还是下降,建议设置一下。被监测数量的最小变化有资格作为改进,即小于 min_delta 的绝对变化,将被视为没有改进。
patience训练停止后没有改善的 epoch 数。
verbose详细模式,0 或 1。模式 0 是静默的,模式 1 在回调执行操作时显示消息。
mode其中之一{"auto", "min", "max"}。模式下,当min监测的数量停止减少时,训练将停止;在"max" 模式下,当监控的数量停止增加时,它会停止;在"auto" mode 下,方向会自动从监控量的名称中推断出来。
baseline监控数量的基线值。如果模型没有显示出对基线的改进,则训练将停止。patience的大小和learning rate直接相关。在learning rate设定的情况下,前期先训练几次观察抖动的epoch number,patience设置的值应当稍大于epoch number。在learning rate变化的情况下,建议要略小于最大的抖动epoch number。
restore_best_weights是否从监测量的最佳值的epoch恢复模型权重。如果为 False,则使用在训练的最后一步获得的模型权重。无论相对于baseline. 如果 epoch 没有改进baseline,训练将运行patience epoch 并从该集合中的最佳 epoch 恢复权重。

现在我们来设置一下EarlyStopping()函数:

from tensorflow.keras.callbacks import ModelCheckpoint, EarlyStoppingepochs = 50# 保存最佳模型参数
checkpointer = ModelCheckpoint('best_model.h5',monitor='val_accuracy',verbose=1,save_best_only=True,save_weights_only=True)# 设置早停
earlystopper = EarlyStopping(monitor='val_accuracy', min_delta=0.001,patience=20, verbose=1)

5、设置模型训练

history = model.fit(train_ds,validation_data=val_ds,epochs=epochs,callbacks=[checkpointer, earlystopper])

训练的结果是:

Epoch 1/50
16/16 [==============================] - ETA: 0s - loss: 215608.0156 - accuracy: 0.4920
Epoch 00001: val_accuracy improved from -inf to 0.50000, saving model to best_model.h5
16/16 [==============================] - 7s 409ms/step - loss: 215608.0156 - accuracy: 0.4920 - val_loss: 0.7101 - val_accuracy: 0.5000
Epoch 2/50
16/16 [==============================] - ETA: 0s - loss: 0.7026 - accuracy: 0.4920
Epoch 00002: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 382ms/step - loss: 0.7026 - accuracy: 0.4920 - val_loss: 0.6959 - val_accuracy: 0.5000
Epoch 3/50
16/16 [==============================] - ETA: 0s - loss: 0.6976 - accuracy: 0.4781
Epoch 00003: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 380ms/step - loss: 0.6976 - accuracy: 0.4781 - val_loss: 0.6999 - val_accuracy: 0.5000
Epoch 4/50
16/16 [==============================] - ETA: 0s - loss: 0.6957 - accuracy: 0.5000
Epoch 00004: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 386ms/step - loss: 0.6957 - accuracy: 0.5000 - val_loss: 0.6931 - val_accuracy: 0.5000
Epoch 5/50
16/16 [==============================] - ETA: 0s - loss: 0.6962 - accuracy: 0.4801
Epoch 00005: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 382ms/step - loss: 0.6962 - accuracy: 0.4801 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 6/50
16/16 [==============================] - ETA: 0s - loss: 0.6942 - accuracy: 0.5000
Epoch 00006: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 389ms/step - loss: 0.6942 - accuracy: 0.5000 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 7/50
16/16 [==============================] - ETA: 0s - loss: 0.6962 - accuracy: 0.5000
Epoch 00007: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 384ms/step - loss: 0.6962 - accuracy: 0.5000 - val_loss: 0.6936 - val_accuracy: 0.5000
Epoch 8/50
16/16 [==============================] - ETA: 0s - loss: 0.6943 - accuracy: 0.5120
Epoch 00008: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 379ms/step - loss: 0.6943 - accuracy: 0.5120 - val_loss: 0.6943 - val_accuracy: 0.5000
Epoch 9/50
16/16 [==============================] - ETA: 0s - loss: 0.6947 - accuracy: 0.4681
Epoch 00009: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 385ms/step - loss: 0.6947 - accuracy: 0.4681 - val_loss: 0.6933 - val_accuracy: 0.5000
Epoch 10/50
16/16 [==============================] - ETA: 0s - loss: 0.6940 - accuracy: 0.4641
Epoch 00010: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 381ms/step - loss: 0.6940 - accuracy: 0.4641 - val_loss: 0.6931 - val_accuracy: 0.5000
Epoch 11/50
16/16 [==============================] - ETA: 0s - loss: 0.6936 - accuracy: 0.4721
Epoch 00011: val_accuracy did not improve from 0.50000
16/16 [==============================] - 7s 422ms/step - loss: 0.6936 - accuracy: 0.4721 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 12/50
16/16 [==============================] - ETA: 0s - loss: 0.6934 - accuracy: 0.4801
Epoch 00012: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 403ms/step - loss: 0.6934 - accuracy: 0.4801 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 13/50
16/16 [==============================] - ETA: 0s - loss: 0.6938 - accuracy: 0.4880
Epoch 00013: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 396ms/step - loss: 0.6938 - accuracy: 0.4880 - val_loss: 0.6933 - val_accuracy: 0.5000
Epoch 14/50
16/16 [==============================] - ETA: 0s - loss: 0.6922 - accuracy: 0.5000
Epoch 00014: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 381ms/step - loss: 0.6922 - accuracy: 0.5000 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 15/50
16/16 [==============================] - ETA: 0s - loss: 0.6936 - accuracy: 0.4920
Epoch 00015: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 405ms/step - loss: 0.6936 - accuracy: 0.4920 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 16/50
16/16 [==============================] - ETA: 0s - loss: 0.7512 - accuracy: 0.5000
Epoch 00016: val_accuracy did not improve from 0.50000
16/16 [==============================] - 7s 420ms/step - loss: 0.7512 - accuracy: 0.5000 - val_loss: 0.6933 - val_accuracy: 0.5000
Epoch 17/50
16/16 [==============================] - ETA: 0s - loss: 0.6930 - accuracy: 0.5040
Epoch 00017: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 402ms/step - loss: 0.6930 - accuracy: 0.5040 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 18/50
16/16 [==============================] - ETA: 0s - loss: 0.6933 - accuracy: 0.5000
Epoch 00018: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 373ms/step - loss: 0.6933 - accuracy: 0.5000 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 19/50
16/16 [==============================] - ETA: 0s - loss: 0.6936 - accuracy: 0.4482
Epoch 00019: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 380ms/step - loss: 0.6936 - accuracy: 0.4482 - val_loss: 0.6931 - val_accuracy: 0.5000
Epoch 20/50
16/16 [==============================] - ETA: 0s - loss: 0.6935 - accuracy: 0.4880
Epoch 00020: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 369ms/step - loss: 0.6935 - accuracy: 0.4880 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 21/50
16/16 [==============================] - ETA: 0s - loss: 0.6933 - accuracy: 0.5000
Epoch 00021: val_accuracy did not improve from 0.50000
16/16 [==============================] - 6s 382ms/step - loss: 0.6933 - accuracy: 0.5000 - val_loss: 0.6932 - val_accuracy: 0.5000
Epoch 00021: early stopping

七、模型评估

1、绘制Loss图和Accuracy图

acc = history.history['accuracy']
val_acc = history.history['val_accuracy']loss = history.history['loss']
val_loss = history.history['val_loss']epochs_range = range(len(loss))plt.figure(figsize=(12, 4))
plt.subplot(1, 2, 1)
plt.plot(epochs_range, acc, label='Training Accuracy')
plt.plot(epochs_range, val_acc, label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')plt.subplot(1, 2, 2)
plt.plot(epochs_range, loss, label='Training Loss')
plt.plot(epochs_range, val_loss, label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()

在这里插入图片描述

这里我们把epochs调到100再试试:

在这里插入图片描述

2、指定图片进行预测

# 加载效果最好的模型权重
model.load_weights('best_model.h5')from PIL import Image
import numpy as npimg = Image.open("E:/深度学习/data/Day14/test/adidas\9.jpg")  #这里选择你需要预测的图片
image = tf.image.resize(img, [img_height, img_width])img_array = tf.expand_dims(image, 0) #/255.0  # 记得做归一化处理(与训练集处理方式保持一致)predictions = model.predict(img_array) # 这里选用你已经训练好的模型
print("预测结果为:",class_names[np.argmax(predictions)])

预测的结果是:

预测结果为:adidas

八、调整参数并对比结果

1、将学习率调整为1e-4

在这里插入图片描述

val_accuracy: 0.6842

可以发现准确率提高了,K导设置的学习率偏高,应该设置低一点的学习率。

2、将衰变率提高到0.96

在这里插入图片描述

val_accuracy: 0.7368

可以发现准确率提高了一点。

3、将衰变步数提高到32

在这里插入图片描述

val_accuracy: 0.8421

可以发现这次准确率比前几次提高了不少。

九、最后我想说

通过后续的参数调整,我们不难发现影响本次模型准确率的关键因素就在于学习率、衰变率和衰变步数的设置,加上后续引入的早停,可以达到当测试集上的loss不再减小的时候停止继续训练,大大节省了模型训练的时间。

学习率和早停的设置在今后的深度学习中会经常遇见,我们需要去了解并掌握相关使用方法,学会调整参数并优化自己的模型非常重要。

这篇关于深度学习 Day 14——利用卷神经网络实现运动鞋品牌识别的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/740865

相关文章

C++使用栈实现括号匹配的代码详解

《C++使用栈实现括号匹配的代码详解》在编程中,括号匹配是一个常见问题,尤其是在处理数学表达式、编译器解析等任务时,栈是一种非常适合处理此类问题的数据结构,能够精确地管理括号的匹配问题,本文将通过C+... 目录引言问题描述代码讲解代码解析栈的状态表示测试总结引言在编程中,括号匹配是一个常见问题,尤其是在

Java实现检查多个时间段是否有重合

《Java实现检查多个时间段是否有重合》这篇文章主要为大家详细介绍了如何使用Java实现检查多个时间段是否有重合,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录流程概述步骤详解China编程步骤1:定义时间段类步骤2:添加时间段步骤3:检查时间段是否有重合步骤4:输出结果示例代码结语作

使用C++实现链表元素的反转

《使用C++实现链表元素的反转》反转链表是链表操作中一个经典的问题,也是面试中常见的考题,本文将从思路到实现一步步地讲解如何实现链表的反转,帮助初学者理解这一操作,我们将使用C++代码演示具体实现,同... 目录问题定义思路分析代码实现带头节点的链表代码讲解其他实现方式时间和空间复杂度分析总结问题定义给定

Java覆盖第三方jar包中的某一个类的实现方法

《Java覆盖第三方jar包中的某一个类的实现方法》在我们日常的开发中,经常需要使用第三方的jar包,有时候我们会发现第三方的jar包中的某一个类有问题,或者我们需要定制化修改其中的逻辑,那么应该如何... 目录一、需求描述二、示例描述三、操作步骤四、验证结果五、实现原理一、需求描述需求描述如下:需要在

如何使用Java实现请求deepseek

《如何使用Java实现请求deepseek》这篇文章主要为大家详细介绍了如何使用Java实现请求deepseek功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1.deepseek的api创建2.Java实现请求deepseek2.1 pom文件2.2 json转化文件2.2

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

如何通过Python实现一个消息队列

《如何通过Python实现一个消息队列》这篇文章主要为大家详细介绍了如何通过Python实现一个简单的消息队列,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录如何通过 python 实现消息队列如何把 http 请求放在队列中执行1. 使用 queue.Queue 和 reque

Python如何实现PDF隐私信息检测

《Python如何实现PDF隐私信息检测》随着越来越多的个人信息以电子形式存储和传输,确保这些信息的安全至关重要,本文将介绍如何使用Python检测PDF文件中的隐私信息,需要的可以参考下... 目录项目背景技术栈代码解析功能说明运行结php果在当今,数据隐私保护变得尤为重要。随着越来越多的个人信息以电子形

使用 sql-research-assistant进行 SQL 数据库研究的实战指南(代码实现演示)

《使用sql-research-assistant进行SQL数据库研究的实战指南(代码实现演示)》本文介绍了sql-research-assistant工具,该工具基于LangChain框架,集... 目录技术背景介绍核心原理解析代码实现演示安装和配置项目集成LangSmith 配置(可选)启动服务应用场景

使用Python快速实现链接转word文档

《使用Python快速实现链接转word文档》这篇文章主要为大家详细介绍了如何使用Python快速实现链接转word文档功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 演示代码展示from newspaper import Articlefrom docx import