实现卷积神经网络:吴恩达Course 4-卷积神经网络-week1作业 pytorch版

2024-06-19 13:48

本文主要是介绍实现卷积神经网络:吴恩达Course 4-卷积神经网络-week1作业 pytorch版,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

注意事项

和老师用tensorflow写的结果不同,不过测试集准度更高了,以下几点原因:
1.没用Xaiver初始化,使用了pytorch默认的初始化方式
2.pytorch和tensorflow的padding机制不同,没有特意去还原tensorflow的方式,pytorch的padding设置值不可以比卷积核的宽度一半大,所以当步长大,用默认方式“SAME”不了
3.全连接层的线性函数输出神经元老师用的是6个,这里用了20个(因为第2点,加上ReLU,用6个神经元会梯度消失,100步以内不收敛)

吐槽一句pytorch的padding方式不太友好,要自己算,tensorflow直接padding="SAME"就行了


资料下载

相关文件可在【tensorflow版大佬】下载


备注

week1作业有两个:
第一部分:用numpy还原卷积神经网络的实现过程
第二部分:用框架实现卷积神经网络

这里只包含第二部分的内容


载入库

import torch
from torch.utils.data import DataLoader, TensorDataset
from torch import nn
import numpy as np
from matplotlib import pyplot as plt
from cnn_utils import load_dataset

数据预处理

# 设置随机种子
torch.manual_seed(1)# 载入数据
X_train_orig, Y_train_orig, X_test_orig, Y_test_orig, classes = load_dataset()# 可视化一个样本
index = 6
plt.imshow(X_train_orig[index])
print('y=' + str(np.squeeze(Y_train_orig[:, index])))
plt.show()# 归一化数据集
X_train = np.transpose(X_train_orig, (0, 3, 1, 2))/255          # 将维度转为(1080, 3, 64, 64)
X_test = np.transpose(X_test_orig, (0, 3, 1, 2))/255            # 将维度转为(120, 3, 64, 64)
# 转置y
Y_train = Y_train_orig.T                    # (1080, 1)
Y_test = Y_test_orig.T                      # (120, 1)print('number of training examples = ' + str(X_train.shape[0]))
print('number of test examples = ' + str(X_test.shape[0]))
print('X_train shape: ' + str(X_train.shape))
print('Y_train shape: ' + str(Y_train.shape))
print('X_test shape: ' + str(X_test.shape))
print('Y_test shape: ' + str(Y_test.shape))

可视化一个样本:
在这里插入图片描述
打印维度:

number of training examples = 1080
number of test examples = 120
X_train shape: (1080, 3, 64, 64)
Y_train shape: (1080, 1)
X_test shape: (120, 3, 64, 64)
Y_test shape: (120, 1)

建模部分

# 创建数据接口
def data_loader(X_train, Y_train, batch_size=64):train_db = TensorDataset(torch.from_numpy(X_train).float(), torch.squeeze(torch.from_numpy(Y_train)))train_loader = DataLoader(train_db, batch_size=batch_size, shuffle=True)return train_loader# 构建模型
class CNN(nn.Module):def __init__(self):# 继承模块super(CNN, self).__init__()self.conv1 = nn.Sequential(nn.Conv2d(                              # input shape (3, 64, 64)in_channels=3,                      # input通道数out_channels=8,                     # output通道数kernel_size=4,                      # 卷积核的边长fstride=1,                           # 步长padding=1                           # padding模式为SAME,=[(s-1)n-s+f]/2,这里算出来不是整数,向下取整了),nn.ReLU(),nn.MaxPool2d(kernel_size=8, stride=8, padding=4))self.conv2 = nn.Sequential(                 # input shape (8, 64, 64)nn.Conv2d(8, 16, 2, 1, 1),nn.ReLU(),nn.MaxPool2d(kernel_size=4, stride=4, padding=2))self.fullconnect = nn.Sequential(nn.Linear(16 * 3 * 3, 20),nn.ReLU())self.classifier = nn.LogSoftmax(dim=1)def forward(self, x):x = self.conv1(x)x = self.conv2(x)# 展平x = x.view(x.size(0), -1)x = self.fullconnect(x)output = self.classifier(x)return outputdef weigth_init(m):if isinstance(m, nn.Conv2d):nn.init.xavier_uniform_(m.weight.data)nn.init.constant_(m.bias.data, 0)elif isinstance(m, nn.Linear):nn.init.xavier_uniform_(m.weight.data)nn.init.constant_(m.bias.data, 0)def model(X_train, Y_train, X_test, Y_test, learning_rate=0.009, num_epochs=100, minibatch_size=64, print_cost=True,is_plot=True):train_loader = data_loader(X_train, Y_train, minibatch_size)cnn = CNN()# cnn.apply(weigth_init)cost_func = nn.NLLLoss()optimizer = torch.optim.Adam(cnn.parameters(), lr=learning_rate, betas=(0.9, 0.999))# 保存每次迭代的cost的列表costs = []# 批次数量m = X_train.shape[0]num_batch = m / minibatch_sizefor epoch in range(num_epochs):epoch_cost = 0for step, (batch_x, batch_y) in enumerate(train_loader):# 前向传播output = cnn(batch_x)# 计算成本cost = cost_func(output, batch_y)epoch_cost += cost.data.numpy() / num_batch# 梯度归零optimizer.zero_grad()# 反向传播cost.backward()# 更新参数optimizer.step()if print_cost and epoch % 5 == 0:costs.append(epoch_cost)print('Cost after epoch %i : %f' % (epoch, epoch_cost))# 画学习曲线if is_plot:plt.plot(costs)plt.xlabel('iterations per 5')plt.ylabel('cost')plt.show()# 保存学习后的参数torch.save(cnn.state_dict(), 'net_params.pkl')print('参数已保存到本地pkl文件。')# 预测训练集cnn.load_state_dict(torch.load('net_params.pkl'))output_train = cnn(torch.from_numpy(X_train).float())pred_Y_train = torch.max(output_train, dim=1)[1].data.numpy()# 预测测试集output_test = cnn(torch.from_numpy(X_test).float())pred_Y_test= torch.max(output_test, dim=1)[1].data.numpy()# 训练集准确率print('Train Accuracy: %.2f %%' % float(np.sum(np.squeeze(Y_train) == pred_Y_train)/m*100))# 测试集准确率print('Test Accuracy: %.2f %%' % float(np.sum(np.squeeze(Y_test) == pred_Y_test)/X_test.shape[0]*100))return cnnmodel(X_train, Y_train, X_test, Y_test)

迭代过程:

Cost after epoch 0 : 2.401703
Cost after epoch 5 : 1.341189
Cost after epoch 10 : 0.801924
Cost after epoch 15 : 0.567850
Cost after epoch 20 : 0.446336
Cost after epoch 25 : 0.342109
Cost after epoch 30 : 0.278837
Cost after epoch 35 : 0.182508
Cost after epoch 40 : 0.152718
Cost after epoch 45 : 0.124633
Cost after epoch 50 : 0.103368
Cost after epoch 55 : 0.099265
Cost after epoch 60 : 0.092497
Cost after epoch 65 : 0.067059
Cost after epoch 70 : 0.080446
Cost after epoch 75 : 0.101512
Cost after epoch 80 : 0.051409
Cost after epoch 85 : 0.021475
Cost after epoch 90 : 0.017657
Cost after epoch 95 : 0.010164

学习曲线:
在这里插入图片描述

训练准确率与测试准确率:

Train Accuracy: 100.00 %
Test Accuracy: 90.83 %

到这就完成啦~

这篇关于实现卷积神经网络:吴恩达Course 4-卷积神经网络-week1作业 pytorch版的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1075203

相关文章

通俗易懂的Java常见限流算法具体实现

《通俗易懂的Java常见限流算法具体实现》:本文主要介绍Java常见限流算法具体实现的相关资料,包括漏桶算法、令牌桶算法、Nginx限流和Redis+Lua限流的实现原理和具体步骤,并比较了它们的... 目录一、漏桶算法1.漏桶算法的思想和原理2.具体实现二、令牌桶算法1.令牌桶算法流程:2.具体实现2.1

MySQL8.0设置redo缓存大小的实现

《MySQL8.0设置redo缓存大小的实现》本文主要在MySQL8.0.30及之后版本中使用innodb_redo_log_capacity参数在线更改redo缓存文件大小,下面就来介绍一下,具有一... mysql 8.0.30及之后版本可以使用innodb_redo_log_capacity参数来更改

C++使用栈实现括号匹配的代码详解

《C++使用栈实现括号匹配的代码详解》在编程中,括号匹配是一个常见问题,尤其是在处理数学表达式、编译器解析等任务时,栈是一种非常适合处理此类问题的数据结构,能够精确地管理括号的匹配问题,本文将通过C+... 目录引言问题描述代码讲解代码解析栈的状态表示测试总结引言在编程中,括号匹配是一个常见问题,尤其是在

Java实现检查多个时间段是否有重合

《Java实现检查多个时间段是否有重合》这篇文章主要为大家详细介绍了如何使用Java实现检查多个时间段是否有重合,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录流程概述步骤详解China编程步骤1:定义时间段类步骤2:添加时间段步骤3:检查时间段是否有重合步骤4:输出结果示例代码结语作

使用C++实现链表元素的反转

《使用C++实现链表元素的反转》反转链表是链表操作中一个经典的问题,也是面试中常见的考题,本文将从思路到实现一步步地讲解如何实现链表的反转,帮助初学者理解这一操作,我们将使用C++代码演示具体实现,同... 目录问题定义思路分析代码实现带头节点的链表代码讲解其他实现方式时间和空间复杂度分析总结问题定义给定

Java覆盖第三方jar包中的某一个类的实现方法

《Java覆盖第三方jar包中的某一个类的实现方法》在我们日常的开发中,经常需要使用第三方的jar包,有时候我们会发现第三方的jar包中的某一个类有问题,或者我们需要定制化修改其中的逻辑,那么应该如何... 目录一、需求描述二、示例描述三、操作步骤四、验证结果五、实现原理一、需求描述需求描述如下:需要在

如何使用Java实现请求deepseek

《如何使用Java实现请求deepseek》这篇文章主要为大家详细介绍了如何使用Java实现请求deepseek功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1.deepseek的api创建2.Java实现请求deepseek2.1 pom文件2.2 json转化文件2.2

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

如何通过Python实现一个消息队列

《如何通过Python实现一个消息队列》这篇文章主要为大家详细介绍了如何通过Python实现一个简单的消息队列,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录如何通过 python 实现消息队列如何把 http 请求放在队列中执行1. 使用 queue.Queue 和 reque

Python如何实现PDF隐私信息检测

《Python如何实现PDF隐私信息检测》随着越来越多的个人信息以电子形式存储和传输,确保这些信息的安全至关重要,本文将介绍如何使用Python检测PDF文件中的隐私信息,需要的可以参考下... 目录项目背景技术栈代码解析功能说明运行结php果在当今,数据隐私保护变得尤为重要。随着越来越多的个人信息以电子形