《neural network and deep learning》题解——ch03 如何选择神经网络的超参数

2024-06-02 04:38

本文主要是介绍《neural network and deep learning》题解——ch03 如何选择神经网络的超参数,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

http://blog.csdn.net/u011239443/article/details/77748116

问题一

上一节有问题也是调参,我们在这里讲解:

更改上面的代码来实现 L1 规范化,使用 L1 规范化使用 30 个隐藏元的神经网络对 MNIST数字进行分类。你能够找到一个规范化参数使得比无规范化效果更好么?

如何修改代码可参阅上节:http://blog.csdn.net/u011239443/article/details/77649026#t5

当无规范化时,我们将上节的代码update_mini_batch中做修改:

self.weights = [w - (eta / len(mini_batch)) * nw for w, nw inzip(self.weights, nabla_w)]

total_cost中去掉:

cost += 0.5 * (lmbda / len(data)) * sum(np.linalg.norm(w) ** 2 for w in self.weights)

为了加快我们的训练,我们使得将训练集设置为1000,验证集设置为100:

net.SGD(training_data[:1000],30,10,0.5,evaluation_data=validation_data[:100],monitor_evaluation_accuracy=True)

结果:

Epoch 30 training complete
Acc on evaluation: 17 / 100

加入 L1 , λ = 100.0 时,结果:

Epoch 30 training complete
Acc on evaluation: 11 / 100

λ = 10.0 时,结果:

Epoch 29 training complete
Acc on evaluation: 11 / 100

λ = 1.0 时,结果:

Epoch 30 training complete
Acc on evaluation: 31 / 100

所以当λ = 1.0 时使,可以使得比无规范化效果更好。

问题二

修改 network2.py 来实现提前终止,并让 n 回合不提升终止策略中的 n 称为可以设置的参数。

随机梯度函数多加一个参数max_try:

    def SGD(self, training_data, epochs, mini_batch_size, eta,lmbda=0.0,evaluation_data=None,monitor_evaluation_cost=False,monitor_evaluation_accuracy=False,monitor_training_cost=False,monitor_training_accuray=False,max_try = 100):

cnt 记录不提升的次数,如达到max_try,就退出循环。这里用monitor_evaluation_accuracy举例:

        cnt = 0for j in xrange(epochs):......if monitor_evaluation_accuracy:acc = self.accuracy(evaluation_data)evaluation_accurary.append(acc)if len(evaluation_accurary) > 1 and acc < evaluation_accurary[len(evaluation_accurary)-2]:cnt += 1if cnt >= max_try:breakelse:cnt = 0print "Acc on evaluation: {} / {}".format(acc, n_data)......

问题三

你能够想出不同于 n 回合不提升终止策略的其他提前终止策略么?理想中,规则应该能够获得更高的验证准确率而不需要训练太久。将你的想法实现在 network2.py 中,运行这些实验和 3 回合(10 回合太多,基本上训练全部,所以改成 3)不提升终止策略比较对应的验证准确率和训练的回合数。

策略与实现

多一个参数x,当提升率小于x,则停止。

随机梯度函数多加一个参数max_x:

    def SGD(self, training_data, epochs, mini_batch_size, eta,lmbda=0.0,evaluation_data=None,monitor_evaluation_cost=False,monitor_evaluation_accuracy=False,monitor_training_cost=False,monitor_training_accuray=False,min_x = 0.01):

当提升率小于x,则停止。这里用monitor_evaluation_accuracy举例:

            if monitor_evaluation_accuracy:acc = self.accuracy(evaluation_data)evaluation_accurary.append(acc)if len(evaluation_accurary) > 1 and \(acc - evaluation_accurary[len(evaluation_accurary)-2])*1.0/(1.0*n_data) < min_x:breakprint "Acc on evaluation: {} / {}".format(acc, n_data)

对比

10 回合不提升终止策略:

net.SGD(training_data[:1000],50,10,0.25,5.0,evaluation_data=validation_data[:100],monitor_evaluation_accuracy=True,max_try=3)

的结果:

Epoch 32 training complete
Acc on evaluation: 15 / 100

提升率小于x停止策略:

Epoch 3 training complete
Acc on evaluation: 17 / 100

问题四

更改 network2.py 实现学习规则:每次验证准确率满足满足 10 回合不提升终止策略时改变学习速率;当学习速率降到初始值的 1/128 时终止。

对问题二中的代码进行稍微的修改,128 = 2 ^ 7 。所以,多加个计数 del_cnt 记录学习率减小的次数:

        cnt = 0del_cnt = 0for j in xrange(epochs):......if monitor_evaluation_accuracy:acc = self.accuracy(evaluation_data)evaluation_accurary.append(acc)if len(evaluation_accurary) > 1 and acc < evaluation_accurary[len(evaluation_accurary)-2]:cnt += 1if cnt >= max_try:del_cnt += 1if del_cnt >= 7:breaketa /= 2.0cnt = 0   else:cnt = 0print "Acc on evaluation: {} / {}".format(acc, n_data)

问题五

使用梯度下降来尝试学习好的超参数的值其实很受期待。你可以想像关于使用梯度下降来确定 λ 的障碍么?你能够想象关于使用梯度下降来确定 η 的障碍么?

  • 使用梯度下降来确定 λ 的障碍在于,

    得:
    $ \frac{∂C}{∂λ} = \frac{\sum_ww^2}{2n} = 0$
    最优化目标使得 w = 0,但是 w 也是我们原来需要优化的。

  • 使用梯度下降来确定 η 的障碍在于,η 的最优解不是一个常数,随着迭代次数的增加,η 的最优解会越来越小。

这里写图片描述

这篇关于《neural network and deep learning》题解——ch03 如何选择神经网络的超参数的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1023053

相关文章

Linux内核参数配置与验证详细指南

《Linux内核参数配置与验证详细指南》在Linux系统运维和性能优化中,内核参数(sysctl)的配置至关重要,本文主要来聊聊如何配置与验证这些Linux内核参数,希望对大家有一定的帮助... 目录1. 引言2. 内核参数的作用3. 如何设置内核参数3.1 临时设置(重启失效)3.2 永久设置(重启仍生效

SpringMVC获取请求参数的方法

《SpringMVC获取请求参数的方法》:本文主要介绍SpringMVC获取请求参数的方法,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下... 目录1、通过ServletAPI获取2、通过控制器方法的形参获取请求参数3、@RequestParam4、@

Spring Boot项目部署命令java -jar的各种参数及作用详解

《SpringBoot项目部署命令java-jar的各种参数及作用详解》:本文主要介绍SpringBoot项目部署命令java-jar的各种参数及作用的相关资料,包括设置内存大小、垃圾回收... 目录前言一、基础命令结构二、常见的 Java 命令参数1. 设置内存大小2. 配置垃圾回收器3. 配置线程栈大小

SpringBoot利用@Validated注解优雅实现参数校验

《SpringBoot利用@Validated注解优雅实现参数校验》在开发Web应用时,用户输入的合法性校验是保障系统稳定性的基础,​SpringBoot的@Validated注解提供了一种更优雅的解... 目录​一、为什么需要参数校验二、Validated 的核心用法​1. 基础校验2. php分组校验3

一文带你了解SpringBoot中启动参数的各种用法

《一文带你了解SpringBoot中启动参数的各种用法》在使用SpringBoot开发应用时,我们通常需要根据不同的环境或特定需求调整启动参数,那么,SpringBoot提供了哪些方式来配置这些启动参... 目录一、启动参数的常见传递方式二、通过命令行参数传递启动参数三、使用 application.pro

基于@RequestParam注解之Spring MVC参数绑定的利器

《基于@RequestParam注解之SpringMVC参数绑定的利器》:本文主要介绍基于@RequestParam注解之SpringMVC参数绑定的利器,具有很好的参考价值,希望对大家有所帮助... 目录@RequestParam注解:Spring MVC参数绑定的利器什么是@RequestParam?@

SpringBoot接收JSON类型的参数方式

《SpringBoot接收JSON类型的参数方式》:本文主要介绍SpringBoot接收JSON类型的参数方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、jsON二、代码准备三、Apifox操作总结一、JSON在学习前端技术时,我们有讲到过JSON,而在

JAVA虚拟机中 -D, -X, -XX ,-server参数使用

《JAVA虚拟机中-D,-X,-XX,-server参数使用》本文主要介绍了JAVA虚拟机中-D,-X,-XX,-server参数使用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录一、-D参数二、-X参数三、-XX参数总结:在Java开发过程中,对Java虚拟机(JVM)的启动参数进

基于Python实现多语言朗读与单词选择测验

《基于Python实现多语言朗读与单词选择测验》在数字化教育日益普及的今天,开发一款能够支持多语言朗读和单词选择测验的程序,对于语言学习者来说无疑是一个巨大的福音,下面我们就来用Python实现一个这... 目录一、项目概述二、环境准备三、实现朗读功能四、实现单词选择测验五、创建图形用户界面六、运行程序七、

解读docker运行时-itd参数是什么意思

《解读docker运行时-itd参数是什么意思》在Docker中,-itd参数组合用于在后台运行一个交互式容器,同时保持标准输入和分配伪终端,这种方式适合需要在后台运行容器并保持交互能力的场景... 目录docker运行时-itd参数是什么意思1. -i(或 --interactive)2. -t(或 --