解惑深度学习中的困惑度Perplexity

2024-04-20 16:04

本文主要是介绍解惑深度学习中的困惑度Perplexity,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

困惑度的定义

困惑度(Perplexity)是衡量语言模型好坏的一个常用指标。语言模型(language model)可以预测序列(比如一个句子)中每个时间步词元(比如一个句子中的逐个单词)的概率分布,继而计算一个序列的概率。

一个好的语言模型应该有更高的概率生成一个好的序列,即生成的序列不应该让人感到很困惑,困惑度的核心思想是:序列生成的概率越大,其困惑度越小,因此可以使用困惑度这个指标来评估语言模型的好坏。

深度学习中,困惑度的公式为:

e x p [ − 1 n ∑ t = 1 n l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] exp[-{1 \over{n}}\sum_{t=1}^{n} log P(x_t|x_{t-1},x_{t-2},...,x_1)] exp[n1t=1nlogP(xtxt1,xt2,...,x1)]

困惑度公式来源

我们看下困惑度的公式是怎么得到的。

序列(比如句子)通常由词元(比如单词或字符)组成:

S = ( x 1 , x 2 , . . . , x n ) S=(x_1,x_2,...,x_n) S=(x1,x2,...,xn)

其中 n n n 是序列的长度。生成此序列的概率为:

P ( S ) = P ( x 1 , x 2 , . . . , x n ) ( 1 ) P(S)=P(x_1,x_2,...,x_n) \ \ \ \ \ (1) P(S)=P(x1,x2,...,xn)     (1)

一个序列中每个时间步的词元的生成概率不是完全独立的,而是会受到前面一些词元的影响,因此
P ( x 1 , x 2 , . . . , x n ) = P ( x 1 ) ⋅ P ( x 2 ∣ x 1 ) ⋅ P ( x 3 ∣ x 2 , x 1 ) ⋅ . . . ⋅ P ( x n ∣ x n − 1 , x n − 2 , . . . , w 1 ) = ∏ t = 1 n P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ( 2 ) \begin{align} P(x_1,x_2,...,x_n) & = P(x_1)·P(x_2|x_1)·P(x_3|x_2,x_1)·...·P(x_n|x_{n-1},x_{n-2},...,w_1) \\ & = \prod_{t=1}^{n}P(x_t|x_{t-1},x_{t-2},...,x_1) \ \ \ \ \ (2) \\ \end{align} P(x1,x2,...,xn)=P(x1)P(x2x1)P(x3x2,x1)...P(xnxn1,xn2,...,w1)=t=1nP(xtxt1,xt2,...,x1)     (2)
P ( S ) P(S) P(S)越大,则说明语言模型的拟合效果越好,求 P ( S ) P(S) P(S)的最大值相当于求 − l o g P ( W ) -logP(W) logP(W)的最小值,再对词元数 n n n 取个平均得:
− 1 n l o g P ( S ) = − 1 n l o g ∏ t = 1 n P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ) = − 1 n ∑ t = 1 n l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ( 3 ) \begin{align} -{1 \over{n}}logP(S) & = -{1 \over{n}}log\prod_{t=1}^{n}P(x_t|x_{t-1},x_{t-2},...,x_1)) \\ & = -{1 \over{n}}\sum_{t=1}^{n} log P(x_t|x_{t-1},x_{t-2},...,x_1) \ \ \ \ \ (3) \\ \end{align} n1logP(S)=n1logt=1nP(xtxt1,xt2,...,x1))=n1t=1nlogP(xtxt1,xt2,...,x1)     (3)
( 3 ) (3) (3) 相当于这个序列中 n n n 个词元交叉熵损失的平均值。

困惑度与交叉熵

语言模型本质上也是个分类问题,对于一个包含 n n n 个词元的序列(句子),里面的每个词元都会做一次预测,然后计算预测结果与实际值的交叉熵损失。因为这个序列包含 n n n 个词元,所以要做 n n n 次预测和交叉熵损失的计算才能得到整个序列的平均交叉熵。

交叉熵的理解可参考 交叉熵 这篇文章

假设共有 J J J 个不同的词元

J = ( w 1 , w 2 , . . . , w J ) J=(w_1,w_2,...,w_J) J=(w1,w2,...,wJ)

对于序列 S S S 在第 t t t 个位置上的词元 x t x_t xt ,它属于 J J J 个词元的预测概率分布与真实概率分布分别为 P ( W ) 、 Q ( W ) P(W)、Q(W) P(W)Q(W),其中

p j = P ( W = w j ) = P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) , j = 1 , 2 , 3 , . . . , J p_j=P(W=w_j)=P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1), \ \ j=1,2,3,...,J pj=P(W=wj)=Pwj(xtxt1,xt2,...,x1),  j=1,2,3,...,J

q j = Q ( W = w j ) = Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) , j = 1 , 2 , 3 , . . . , J q_j=Q(W=w_j)=Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1), \ \ j=1,2,3,...,J qj=Q(W=wj)=Qwj(xtxt1,xt2,...,x1),  j=1,2,3,...,J

则两个概率分布的交叉熵损失可表示为:

H ( Q , P ) = − ∑ j = 1 J q j l o g p j = − ∑ j = 1 J Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) H(Q,P)=-\sum_{j=1}^Jq_j log p_j=-\sum_{j=1}^J Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) H(Q,P)=j=1Jqjlogpj=j=1JQwj(xtxt1,xt2,...,x1)logPwj(xtxt1,xt2,...,x1)

假设 w w w 是序列 S S S 在第 t t t 个位置上真实的词元,即 x t = w x_t=w xt=w ,则真实分布 Q ( W ) Q(W) Q(W) 可表示为:
Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) = { 1 , w j = w 0 , w j ≠ w Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1)= \left\{\begin{matrix} 1,w_j=w \\ 0,w_j≠w \end{matrix}\right. Qwj(xtxt1,xt2,...,x1)={1,wj=w0,wj=w
这个式子可对应深度学习中分类模型标签向量的表示:一般真实值位置为1,其他位置都为0,故:
H ( Q , P ) = − ∑ j = 1 J Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) = − [ Q w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) + ∑ w j ≠ w Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] = − [ 1 ⋅ l o g P w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) + ∑ w j ≠ w 0 ⋅ l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] = − l o g P w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) \begin{align} H(Q,P) & = -\sum_{j=1}^J Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) \\ & = -[Q_{w}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w}(x_t|x_{t-1},x_{t-2},...,x_1)+\sum_{w_j≠w} Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1)] \\ & = -[1·log P_{w}(x_t|x_{t-1},x_{t-2},...,x_1)+\sum_{w_j≠w} 0·log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1)] \\ & = -log P_{w}(x_t|x_{t-1},x_{t-2},...,x_1) \\ \end{align} H(Q,P)=j=1JQwj(xtxt1,xt2,...,x1)logPwj(xtxt1,xt2,...,x1)=[Qw(xtxt1,xt2,...,x1)logPw(xtxt1,xt2,...,x1)+wj=wQwj(xtxt1,xt2,...,x1)logPwj(xtxt1,xt2,...,x1)]=[1logPw(xtxt1,xt2,...,x1)+wj=w0logPwj(xtxt1,xt2,...,x1)]=logPw(xtxt1,xt2,...,x1)
序列 S S S 其他位置上词元的交叉熵损失的计算以此类推,所以对于包含 n n n 个词元的整个序列 S S S 的平均交叉熵损失为:

1 n ∑ t = 1 n − l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) {1 \over{n}}\sum_{t=1}^{n} -log P(x_t|x_{t-1},x_{t-2},...,x_1) n1t=1nlogP(xtxt1,xt2,...,x1)

困惑度只不过是在平均交叉熵外套了一个壳

e x p [ − 1 n ∑ t = 1 n l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] exp[-{1 \over{n}}\sum_{t=1}^{n} log P(x_t|x_{t-1},x_{t-2},...,x_1)] exp[n1t=1nlogP(xtxt1,xt2,...,x1)]

困惑度公式的理解:

  • 在最好的情况下,模型总是完美地估计标签词元的概率为1。在这种情况下,模型的困惑度为1;

  • 在最坏的情况下,模型总是预测标签词元的概率为0。在这种情况下,困惑度是正无穷大。

这篇关于解惑深度学习中的困惑度Perplexity的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/920699

相关文章

SpringCloud动态配置注解@RefreshScope与@Component的深度解析

《SpringCloud动态配置注解@RefreshScope与@Component的深度解析》在现代微服务架构中,动态配置管理是一个关键需求,本文将为大家介绍SpringCloud中相关的注解@Re... 目录引言1. @RefreshScope 的作用与原理1.1 什么是 @RefreshScope1.

Python 中的异步与同步深度解析(实践记录)

《Python中的异步与同步深度解析(实践记录)》在Python编程世界里,异步和同步的概念是理解程序执行流程和性能优化的关键,这篇文章将带你深入了解它们的差异,以及阻塞和非阻塞的特性,同时通过实际... 目录python中的异步与同步:深度解析与实践异步与同步的定义异步同步阻塞与非阻塞的概念阻塞非阻塞同步

Redis中高并发读写性能的深度解析与优化

《Redis中高并发读写性能的深度解析与优化》Redis作为一款高性能的内存数据库,广泛应用于缓存、消息队列、实时统计等场景,本文将深入探讨Redis的读写并发能力,感兴趣的小伙伴可以了解下... 目录引言一、Redis 并发能力概述1.1 Redis 的读写性能1.2 影响 Redis 并发能力的因素二、

最新Spring Security实战教程之表单登录定制到处理逻辑的深度改造(最新推荐)

《最新SpringSecurity实战教程之表单登录定制到处理逻辑的深度改造(最新推荐)》本章节介绍了如何通过SpringSecurity实现从配置自定义登录页面、表单登录处理逻辑的配置,并简单模拟... 目录前言改造准备开始登录页改造自定义用户名密码登陆成功失败跳转问题自定义登出前后端分离适配方案结语前言

Java进阶学习之如何开启远程调式

《Java进阶学习之如何开启远程调式》Java开发中的远程调试是一项至关重要的技能,特别是在处理生产环境的问题或者协作开发时,:本文主要介绍Java进阶学习之如何开启远程调式的相关资料,需要的朋友... 目录概述Java远程调试的开启与底层原理开启Java远程调试底层原理JVM参数总结&nbsMbKKXJx

Redis 内存淘汰策略深度解析(最新推荐)

《Redis内存淘汰策略深度解析(最新推荐)》本文详细探讨了Redis的内存淘汰策略、实现原理、适用场景及最佳实践,介绍了八种内存淘汰策略,包括noeviction、LRU、LFU、TTL、Rand... 目录一、 内存淘汰策略概述二、内存淘汰策略详解2.1 ​noeviction(不淘汰)​2.2 ​LR

Python与DeepSeek的深度融合实战

《Python与DeepSeek的深度融合实战》Python作为最受欢迎的编程语言之一,以其简洁易读的语法、丰富的库和广泛的应用场景,成为了无数开发者的首选,而DeepSeek,作为人工智能领域的新星... 目录一、python与DeepSeek的结合优势二、模型训练1. 数据准备2. 模型架构与参数设置3

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动

Go中sync.Once源码的深度讲解

《Go中sync.Once源码的深度讲解》sync.Once是Go语言标准库中的一个同步原语,用于确保某个操作只执行一次,本文将从源码出发为大家详细介绍一下sync.Once的具体使用,x希望对大家有... 目录概念简单示例源码解读总结概念sync.Once是Go语言标准库中的一个同步原语,用于确保某个操