yolov3算法中关于loss={'yolo_loss': lambda y_true, y_pred: y_pred}的理解

2024-04-20 20:18

本文主要是介绍yolov3算法中关于loss={'yolo_loss': lambda y_true, y_pred: y_pred}的理解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

yolov3算法中关于loss={‘yolo_loss’: lambda y_true, y_pred: y_pred}的理解

参考文献:
(1)https://www.jianshu.com/p/7e45586c44be
(2)https://blog.csdn.net/wangdongwei0/article/details/82563689?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task
(3)https://kexue.fm/archives/4493

所用的yolov3代码: https://github.com/qqwweee/keras-yolo3 ,解压之后用pycharm打开。

在train.py中有如下代码,对模型进行编译:

    if True:model.compile(optimizer=Adam(lr=1e-3), loss={# use custom yolo_loss Lambda layer.'yolo_loss': lambda y_true, y_pred: y_pred})

刚开始对 loss={‘yolo_loss’: lambda y_true, y_pred: y_pred})不理解,通过查看相关博客,个人理解如下:
首先查看 Keras中的目标函数(损失函数)的定义方法(路径是keras→losses.py):

def mean_squared_error(y_true, y_pred):return K.mean(K.square(y_pred - y_true), axis=-1)def mean_absolute_error(y_true, y_pred):return K.mean(K.abs(y_pred - y_true), axis=-1)def mean_absolute_percentage_error(y_true, y_pred):diff = K.abs((y_true - y_pred) / K.clip(K.abs(y_true),K.epsilon(),None))return 100. * K.mean(diff, axis=-1)

可以发现y_true, y_pred是标准的函数输入参数,一个代表真实值(标签),一个代表预测值,函数返回的是即为预测值与真实值的某种误差函数。

但yolov3算法中,将loss函数写成一个Lambda层了,即该层的输出就是模型的loss值,也就是模型的预测值 y_pred.

model_loss = Lambda(yolo_loss, output_shape=(1,), name='yolo_loss',arguments={'anchors': anchors, 'num_classes': num_classes, 'ignore_thresh': 0.5})([*model_body.output, *y_true])

因此,模型compile时传递的是自定义的loss,自定义的方法是使用Python里的匿名函数,即 lambda y_true, y_pred: y_pred, 其中,该匿名函数的输入参数是y_true, y_pred: y_pred,代表模型的真实值和预测值,该匿名函数的返回值是y_pred,即模型的预测值,该预测值正是loss值。
对于loss={‘yolo_loss’: lambda y_true, y_pred: y_pred}中的’yolo_loss’,参考以下文献就明白了:
https://keras-zh.readthedocs.io/getting-started/functional-api-guide/
https://blog.csdn.net/xiaohuihui1994/article/details/81022043
我的理解是凡是在字典中的键,如loss={‘yolo_loss’: lambda y_true, y_pred: y_pred}中的’yolo_loss’,loss_weights={‘main_output’: 1., ‘aux_output’: 0.2})中的’main_output’,model.fit({‘main_input’: headline_data, ‘aux_input’: additional_data}, {‘main_output’: headline_labels, ‘aux_output’: additional_labels},epochs=50, batch_size=32)中的’main_input’、'aux_input’等,都是在在定义层时传递的一个 name 参数,即
model_loss = Lambda(yolo_loss, output_shape=(1,), name=‘yolo_loss’,
arguments={‘anchors’: anchors, ‘num_classes’: num_classes, ‘ignore_thresh’: 0.5})(
[*model_body.output, *y_true]) 中的name=‘yolo_loss’ 。

    if True:model.compile(optimizer=Adam(lr=1e-3), loss={# use custom yolo_loss Lambda layer.'yolo_loss': lambda y_true, y_pred: y_pred})

这篇关于yolov3算法中关于loss={'yolo_loss': lambda y_true, y_pred: y_pred}的理解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/921229

相关文章

一文带你理解Python中import机制与importlib的妙用

《一文带你理解Python中import机制与importlib的妙用》在Python编程的世界里,import语句是开发者最常用的工具之一,它就像一把钥匙,打开了通往各种功能和库的大门,下面就跟随小... 目录一、python import机制概述1.1 import语句的基本用法1.2 模块缓存机制1.

深入理解C语言的void*

《深入理解C语言的void*》本文主要介绍了C语言的void*,包括它的任意性、编译器对void*的类型检查以及需要显式类型转换的规则,具有一定的参考价值,感兴趣的可以了解一下... 目录一、void* 的类型任意性二、编译器对 void* 的类型检查三、需要显式类型转换占用的字节四、总结一、void* 的

深入理解Redis大key的危害及解决方案

《深入理解Redis大key的危害及解决方案》本文主要介绍了深入理解Redis大key的危害及解决方案,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着... 目录一、背景二、什么是大key三、大key评价标准四、大key 产生的原因与场景五、大key影响与危

Python中的随机森林算法与实战

《Python中的随机森林算法与实战》本文详细介绍了随机森林算法,包括其原理、实现步骤、分类和回归案例,并讨论了其优点和缺点,通过面向对象编程实现了一个简单的随机森林模型,并应用于鸢尾花分类和波士顿房... 目录1、随机森林算法概述2、随机森林的原理3、实现步骤4、分类案例:使用随机森林预测鸢尾花品种4.1

Python中lambda排序的六种方法

《Python中lambda排序的六种方法》本文主要介绍了Python中使用lambda函数进行排序的六种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们... 目录1.对单个变量进行排序2. 对多个变量进行排序3. 降序排列4. 单独降序1.对单个变量进行排序

SpringBoot基于MyBatis-Plus实现Lambda Query查询的示例代码

《SpringBoot基于MyBatis-Plus实现LambdaQuery查询的示例代码》MyBatis-Plus是MyBatis的增强工具,简化了数据库操作,并提高了开发效率,它提供了多种查询方... 目录引言基础环境配置依赖配置(Maven)application.yml 配置表结构设计demo_st

深入理解C++ 空类大小

《深入理解C++空类大小》本文主要介绍了C++空类大小,规定空类大小为1字节,主要是为了保证对象的唯一性和可区分性,满足数组元素地址连续的要求,下面就来了解一下... 目录1. 保证对象的唯一性和可区分性2. 满足数组元素地址连续的要求3. 与C++的对象模型和内存管理机制相适配查看类对象内存在C++中,规

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

认识、理解、分类——acm之搜索

普通搜索方法有两种:1、广度优先搜索;2、深度优先搜索; 更多搜索方法: 3、双向广度优先搜索; 4、启发式搜索(包括A*算法等); 搜索通常会用到的知识点:状态压缩(位压缩,利用hash思想压缩)。