Ng深度学习笔记 机器学习策略(上)

2023-11-11 22:30

本文主要是介绍Ng深度学习笔记 机器学习策略(上),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

机器学习(ML)策略

  • 正交化(Orthogonalization)
  • 单一数字评估指标
  • 满足和优化指标(Satisficing and optimizing metrics)
  • 训练/开发/测试集划分(Train/dev/test distributions)
  • 开发集和测试集的大小(Size of dev and test sets)
  • 什么时候该改变开发/测试集和指标?(When to change dev/test sets and metrics)
  • 为什么是人的表现?
  • 可避免偏差(Avoidable bias)
  • 理解人的表现(Understanding human-level performance)
  • 超过人的表现(Surpassing human- level performance)
  • 改善模型的表现

正交化(Orthogonalization)

机器学习系统的挑战之一是,可以尝试和改变的东西太多太多了。比如说,有很多超参数可以调。

Orthogonalization的核心在于每次调试一个参数只会影响模型的某一个性能,而不会影响其它功能。也就是说彼此旋钮之间是互不影响的,是正交的,这也是Orthogonalization名称的由来。这种方法能够让我们更快更有效地进行机器学习模型的调试和优化。

对应到机器学习监督式学习模型中,可以大致分成四个独立的“功能”,每个“功能”对应一些可调节的唯一的旋钮。四个“功能”如下:

  • Fit training set well on cost function

  • Fit dev set well on cost function

  • Fit test set well on cost function

  • Performs well in real world

其中,第一条优化训练集可以通过使用更复杂NN,使用Adam等优化算法来实现;第二条优化验证集可以通过正则化,采用更多训练样本来实现;第三条优化测试集可以通过使用更多的验证集样本来实现;第四条提升实际应用模型可以通过更换验证集,使用新的cost function来实现。概括来说,每一种“功能”对应不同的调节方法。而这些调节方法(旋钮)只会对应一个“功能”,是正交的。

early stopping在模型功能调试中并不推荐使用。因为early stopping在提升验证集性能的同时降低了训练集的性能。也就是说early stopping同时影响两个“功能”,不具有独立性、正交性。

单一数字评估指标

构建、优化机器学习模型时,单值评价指标非常必要。有了量化的单值评价指标后,我们就能根据这一指标比较不同超参数对应的模型的优劣,从而选择最优的那个模型。

比如有A和B两个模型,它们的准确率(Precision)和召回率(Recall)分别如下:

这里写图片描述

如果只看Precision查准率的话,B模型更好。如果只看Recall查全率的话,A模型更好。实际应用中,我们通常使用单值评价指标F1 Score来评价模型的好坏。F1 Score综合了Precision和Recall的大小,计算方法如下:

2 1 P + 1 R \frac{2}{\frac{1}{P} + \frac{1}{R}} P1+R12

通过引入单值评价指标F1 Score,很方便对不同模型进行比较。

除了F1 Score之外,我们还可以使用平均值作为单值评价指标来对模型进行评估。如下图所示,A, B, C, D, E, F六个模型对不同国家样本的错误率不同,可以计算其平均性能,然后选择平均错误率最小的那个模型(C模型)。
在这里插入图片描述

满足和优化指标(Satisficing and optimizing metrics)

构成单值评价指标有时比较困难的。解决办法:

  • 优化指标(Optimizing metic),寻求最优化值;
  • 满意指标(Satisficing metic),满足阈值就行。

训练/开发/测试集划分(Train/dev/test distributions)

Train/dev/test sets如何设置对机器学习的模型训练非常重要,合理设置能够大大提高模型训练效率和模型质量。

原则上应该尽量保证dev sets和test sets来源于同一分布且都反映了实际样本的情况。如果dev sets和test sets不来自同一分布,那么我们从dev sets上选择的“最佳”模型往往不能够在test sets上表现得很好。

开发集和测试集的大小(Size of dev and test sets)

在之前的课程中我们已经介绍过,当样本数量不多(小于一万)的时候,通常将Train/dev/test sets的比例设为60%/20%/20%,在没有dev sets的情况下,Train/test sets的比例设为70%/30%。当样本数量很大(百万级别)的时候,通常将相应的比例设为98%/1%/1%或者99%/1%。

dev sets数量的设置的准则: 是通过dev sets能够检测不同算法或模型的区别,以便选择出更好的模型。

test sets数量的设置的准则: 是通过test sets能够反映出模型在实际中的表现。

实际应用中,可能只有train/dev sets,而没有test sets。这种情况也是允许的,只要算法模型没有对dev sets过拟合。但是,条件允许的话,最好是有test sets,实现无偏估计。

什么时候该改变开发/测试集和指标?(When to change dev/test sets and metrics)

算法模型的评价标准有时候需要根据实际情况进行动态调整,目的是让算法模型在实际应用中有更好的效果。

举个猫类识别的例子。初始的评价标准是错误率,算法A错误率为3%,算法B错误率为5%。显然,A更好一些。但是,实际使用时发现算法A会通过一些色情图片,但是B没有出现这种情况。从用户的角度来说,他们可能更倾向选择B模型,虽然B的错误率高一些。这时候,我们就需要改变之前单纯只是使用错误率作为评价标准,而考虑新的情况进行改变。例如增加色情图片的权重,增加其代价。

其中一个修改评估指标的方法是,这里( 1 m d e v \frac{1}{m_{{dev}}} mdev1 ∑ i = 1 m d e v I y p r e d ( i ) ≠ y ( i ) \sum_{i =1}^{m_{{dev}}}{I{ y_{{pred}}^{(i)} \neq y^{(i)}}} i=1mdevIypred(i)=y(i)之间)加个权重项,即:

E r r o r = 1 m d e v ∑ i = 1 m d e v w ( i ) I y p r e d ( i ) ≠ y ( i ) Error = \frac{1}{m_{{dev}}}\sum_{i = 1}^{m_{{dev}}}{w^{(i)}I{ y_{{pred}}^{(i)} \neq y^{(i)}}} Error=mdev1i=1mdevw(i)Iypred(i)=y(i)

我们将这个称为 w ( i ) w^{\left( i \right)} w(i),其中如果图片 x ( i ) x^{(i)} x(i)不是色情图片,则 w ( i ) = 1 w^{\left( i \right)} = 1 w(i)=1。如果 x ( i ) x^{(i)} x(i)是色情图片, w ( i ) w^{(i)} w(i)可能就是10甚至100,这样你赋予了色情图片更大的权重,让算法将色情图分类为猫图时,错误率这个项快速变大。这个例子里,你把色情图片分类成猫这一错误的惩罚权重加大10倍。

如果你希望得到归一化常数,在技术上,就是 w ( i ) w^{(i)} w(i)对所有 i i i求和,这样错误率仍然在0和1之间,即:

E r r o r = 1 ∑ w ( i ) ∑ i = 1 m d e v w ( i ) I y p r e d ( i ) ≠ y ( i ) Error = \frac{1}{\sum_{}^{}w^{(i)}}\sum_{i = 1}^{m_{{dev}}}{w^{(i)}I{ y_{{pred}}^{(i)} \neq y^{(i)}}} Error=w(i)1i=1mdevw(i)Iypred(i)=y(i)

加权的细节并不重要,实际上要使用这种加权,你必须自己过一遍开发集和测试集,在开发集和测试集里,自己把色情图片标记出来,这样你才能使用这个加权函数。

概括来说,机器学习可分为两个过程:

Define a metric to evaluate classifiers

How to do well on this metric

第一步是找靶心,第二步是通过训练,射中靶心。但是在训练的过程中可能会根据实际情况改变算法模型的评价标准,进行动态调整。

为什么是人的表现?

在这里插入图片描述
图中,横坐标是训练时间,纵坐标是准确性。机器学习模型经过训练会不断接近人类水平甚至超过它。但是,超过h人类水平之后,准确性会上升得比较缓慢,最终不断接近理想的最优情况,我们称之为贝叶斯最优错误率。理论上任何模型都不能超过它,它代表了最佳表现。

完美的准确率可能不是100%。也许一些图像非常模糊,不管是人类还是机器,都无法判断该图片中是否有猫。所以,完美的准确度可能不是100%。

而贝叶斯最优错误率有时写作Bayesian,即省略optimal,就是从 x x x y y y映射的理论最优函数,永远不会被超越。

知道人类在特定任务上能做多好可以帮助你更好地了解你应该重点尝试减少偏差,还是减少方差。

可避免偏差(Avoidable bias)

实际应用中,要看human-level error,training error和dev error的相对值。例如猫类识别的例子中,如果human-level error为1%,training error为8%,dev error为10%。由于training error与human-level error相差7%,dev error与training error只相差2%,所以目标是尽量在训练过程中减小training error,即减小偏差bias。如果图片很模糊,肉眼也看不太清,human-level error提高到7.5%。这时,由于training error与human-level error只相差0.5%,dev error与training error只相差2%,所以目标是尽量在训练过程中减小dev error,即方差variance。这是相对而言的。
在这里插入图片描述

对于物体识别这类CV问题,人类错误率是很低的,很接近理想情况下的bayes optimal error。因此,上面例子中的1%和7.5%都可以近似看成是两种情况下对应的bayes optimal error。实际应用中,我们一般会用人类错误率代表bayes optimal error。

通常,我们把训练误差与人类误差之间的差值称为偏差,也称作可避免偏差;把dev错误率与训练误差率之间的差值称为方差。根据偏差和方差值的相对大小,可以知道算法模型是否发生了欠拟合或者过拟合。

实际应用中,要看人类水平错误率,训练错误和测试错误的相对值。例如猫类识别的例子中,如果人类水平为1%,训练错误为8%,测试错误为10%。由于训练错误率与人类水平相差7%,测试误差与训练误差只相差2%,所以目标是尽量在训练过程中减小训练错误,即减小偏差bias。如果图片很模糊,肉眼也看不太清,人类水平错误率提高到7.5%。这时,由于训练错误与人类水平只相差0.5%,测试错误与训练错误只相差2%,所以目标是尽量在训练过程中减小测试错误,即方差。

理解人的表现(Understanding human-level performance)

不同人可能选择的human-level performance基准是不同的,这会带来一些影响。

对人类水平有大概的估计可以让你做出对贝叶斯错误率的估计,这样可以让你更快地作出决定是否应该专注于减少算法的偏差,或者减少算法的方差。这个决策技巧通常很有效,直到你的系统性能开始超越人类,那么对贝叶斯错误率的估计就不再准确了,但这些技巧还是可以帮你做出明确的决定。

超过人的表现(Surpassing human- level performance)

我们讨论过机器学习进展,会在接近或者超越人类水平的时候变得越来越慢。

机器学习团队都可以访问大量数据,所以比如说,那四个应用中,最好的系统看到的数据量可能比任何人类能看到的都多,所以这样就相对容易得到超越人类水平的系统。现在计算机可以检索那么多数据,它可以比人类更敏锐地识别出数据中的统计规律。

除了这些问题,今天已经有语音识别系统超越人类水平了,还有一些计算机视觉任务,一些图像识别任务,计算机已经超越了人类水平。但是由于人类对这种自然感知任务非常擅长,我想计算机达到那种水平要难得多。还有一些医疗方面的任务,比如阅读ECG或诊断皮肤癌,或者某些特定领域的放射科读图任务,这些任务计算机做得非常好了,也许超越了单个人类的水平。

超越人类的表现往往不容易,但如果有足够多的数据,已经有很多深度学习系统,在单一监督学习问题上已经超越了人类的水平。

改善模型的表现

提高机器学习模型性能主要要解决两个问题:avoidable bias和variance。我们之前介绍过,training error与human-level error之间的差值反映的是avoidable bias,dev error与training error之间的差值反映的是variance。

解决偏差和方差的常用方法包括:

在这里插入图片描述

这篇关于Ng深度学习笔记 机器学习策略(上)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/393251

相关文章

SpringCloud动态配置注解@RefreshScope与@Component的深度解析

《SpringCloud动态配置注解@RefreshScope与@Component的深度解析》在现代微服务架构中,动态配置管理是一个关键需求,本文将为大家介绍SpringCloud中相关的注解@Re... 目录引言1. @RefreshScope 的作用与原理1.1 什么是 @RefreshScope1.

Python 中的异步与同步深度解析(实践记录)

《Python中的异步与同步深度解析(实践记录)》在Python编程世界里,异步和同步的概念是理解程序执行流程和性能优化的关键,这篇文章将带你深入了解它们的差异,以及阻塞和非阻塞的特性,同时通过实际... 目录python中的异步与同步:深度解析与实践异步与同步的定义异步同步阻塞与非阻塞的概念阻塞非阻塞同步

Redis中高并发读写性能的深度解析与优化

《Redis中高并发读写性能的深度解析与优化》Redis作为一款高性能的内存数据库,广泛应用于缓存、消息队列、实时统计等场景,本文将深入探讨Redis的读写并发能力,感兴趣的小伙伴可以了解下... 目录引言一、Redis 并发能力概述1.1 Redis 的读写性能1.2 影响 Redis 并发能力的因素二、

最新Spring Security实战教程之表单登录定制到处理逻辑的深度改造(最新推荐)

《最新SpringSecurity实战教程之表单登录定制到处理逻辑的深度改造(最新推荐)》本章节介绍了如何通过SpringSecurity实现从配置自定义登录页面、表单登录处理逻辑的配置,并简单模拟... 目录前言改造准备开始登录页改造自定义用户名密码登陆成功失败跳转问题自定义登出前后端分离适配方案结语前言

Java进阶学习之如何开启远程调式

《Java进阶学习之如何开启远程调式》Java开发中的远程调试是一项至关重要的技能,特别是在处理生产环境的问题或者协作开发时,:本文主要介绍Java进阶学习之如何开启远程调式的相关资料,需要的朋友... 目录概述Java远程调试的开启与底层原理开启Java远程调试底层原理JVM参数总结&nbsMbKKXJx

Redis 内存淘汰策略深度解析(最新推荐)

《Redis内存淘汰策略深度解析(最新推荐)》本文详细探讨了Redis的内存淘汰策略、实现原理、适用场景及最佳实践,介绍了八种内存淘汰策略,包括noeviction、LRU、LFU、TTL、Rand... 目录一、 内存淘汰策略概述二、内存淘汰策略详解2.1 ​noeviction(不淘汰)​2.2 ​LR

Python与DeepSeek的深度融合实战

《Python与DeepSeek的深度融合实战》Python作为最受欢迎的编程语言之一,以其简洁易读的语法、丰富的库和广泛的应用场景,成为了无数开发者的首选,而DeepSeek,作为人工智能领域的新星... 目录一、python与DeepSeek的结合优势二、模型训练1. 数据准备2. 模型架构与参数设置3

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动

Go中sync.Once源码的深度讲解

《Go中sync.Once源码的深度讲解》sync.Once是Go语言标准库中的一个同步原语,用于确保某个操作只执行一次,本文将从源码出发为大家详细介绍一下sync.Once的具体使用,x希望对大家有... 目录概念简单示例源码解读总结概念sync.Once是Go语言标准库中的一个同步原语,用于确保某个操