神经网络训练中小知识点记录

2024-03-06 17:32

本文主要是介绍神经网络训练中小知识点记录,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  1. Faster RCNN和SSD有什么不同,为什么SSD快?
    不做region proposal,而且是one-stage
  2. 训练加速的办法
    加大bacth size,或者先adam再SGD
  3. 加大batch size需要调节哪些超参数
    加大学习率,加大epoch
  4. pascal voc数据集坐标从1开始,而不是从0开始,也许采用的是matlab的格式。
  5. 数据扩增:如随机翻转、随机裁剪、颜色抖动等。注意:对图像所做的任何操作都必须对边界框同样执行,如果翻转图像,还必须对应地翻转真值框的坐标。因为卷积具有平移不变性,因此数据增强一般使用的是复杂的策略:翻转、裁切、放缩。考虑到实现的方便性,常见的是使用翻转,若网络允许的话,也会加入一些随机放缩到一组特定尺寸中的某个。
  6. 例如在yolo中,数据扩增的流程如下:
    第一步:加载原始图像
    第二步:随机增加、或者减去原始图片大小的20%来选择新的宽度和高度
    第三步:按照新大小裁剪图像,如果新图像在一个或多个边上大于原始图像,则用0填充。
    第四步:将图像resize到416*416,使其成为正方形
    第五步:随机翻转图像的色调、饱和度曝光(亮度)
    第六步:通过移动和缩放边界框坐标来调整边界框,以适应前面所做的裁剪和调整大小,以及水平翻转等操作。
  7. 旋转是常见数据扩增技术,但是这是很麻烦的,因为牵涉到旋转边界框。所以通常不采用旋转来扩增数据。
  8. SSD采用的数据扩增流程是:
    第一步:随机裁剪一个图像区域,使该区域中物体的最小IOU为0.1/0.3/0.5/0.7/0.9,IOU越小,模型越难检测到物体。
    第二步:使用“缩小”增强,将图像变小,从而构建包含小物体的训练数据,这对于模型更好的处理小物体很有用。
  9. 数据扩增中的随机裁剪可能导致物体的部分或者全部落在裁剪图像之外。因此只希望保留中心位于该裁剪区域某个位置的边界框,不希望保留中心位于裁剪区域之外的框。
  10. 理解网络架构背后的概念、洞察力比架构本身更重要
  11. 再调整超参数上(如内核大小、损失函数的加权因子等)耗费太多时间不值得,因为对性能的提升微乎其微。
  12. 为每个图层指定名称,便于查找。
  13. 单元测试,查看迭代后是否更新权重。
  14. VGG的设计经验:每进行一次尺寸上的下采样(减少),就要增加2倍的卷积核数量。

对于不平衡的样本,需要从数据和算法两个层面解决:

  1. 在数据上:数据重采样(上采样,复制或者数据扩充使得样本少类与样本最多的类一致,下采样,比如在每个batch中保证政府比例相等),累呗平衡采样(将样本归类,将所有类扩充到与样本最多的类一致后随机打乱,方法与数据重采样中的上采样类似)
  2. 在算法上:代价敏感

模型集成

  1. 数据层面:测试阶段数据增广(对同一张图像增广成n张,将n张输入到模型得到n个结果进行集成)、简易集成法。
  2. 模型层面:单模型集成(多层特征融合,将多层特征融合,网络快照法)、多模型集成(多模型生成,同一模型不同初始化、同一模型不同训练轮数、不同目标函数、不同网络结构,多模型集成,直接平均,投票法,丢跌法(将集成结果作为新的特征训练另一个模型)

网络参数初始化

  1. 全零初始化:但是当全零初始化时,导致网络输出全部相同,梯度更新完全相同,模型无法训练
  2. 随机初始化:实际应用,通常将随机参数服从均匀分布或者是高斯分布

目标函数(损失函数)

  1. 分类任务:交叉熵损失函数是常用的,合页损失函数、坡道损失函数、中心损失函数
  2. 回归任务:L1损失函数、L2损失函数

网络正则化(保证泛化能力的同时,避免过拟合)

  1. L2正则化,L1正则化(相较于L2正则化,L1正则化能产生更加稀疏的参数)、Elastic网络正则化(L1和L2按照比例混合)
  2. 随机失活,注意训练阶段和测试阶段的区别,需要乘上系数
  3. 增加训练数据,使用更多的数据扩充方式
  4. 加入随机噪声

超参数设定与网络训练

  1. 超参数设定:输入数据的像素大小、卷积层参数设定(卷积核大小、卷积操作的步长、卷积核个数、通常卷积核大小为奇数,一般是3或者5,卷积核个数一般为2的次幂)、池化层参数设定
  2. 网络训练:在每轮训练前将训练集顺序打乱,是因为信息论中从不相似的事件中学习总是比从相似事件中学习更具有信息量,学习率设定,初始不宜过大,后续需要减缓,是否使用Batch Normalization,优化算法的选择(SGD、基于动量的SGD、Nesterov、Adagrad、Adadelta、RMSProp、Adam等)

这篇关于神经网络训练中小知识点记录的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/780819

相关文章

基本知识点

1、c++的输入加上ios::sync_with_stdio(false);  等价于 c的输入,读取速度会加快(但是在字符串的题里面和容易出现问题) 2、lower_bound()和upper_bound() iterator lower_bound( const key_type &key ): 返回一个迭代器,指向键值>= key的第一个元素。 iterator upper_bou

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件

两个月冲刺软考——访问位与修改位的题型(淘汰哪一页);内聚的类型;关于码制的知识点;地址映射的相关内容

1.访问位与修改位的题型(淘汰哪一页) 访问位:为1时表示在内存期间被访问过,为0时表示未被访问;修改位:为1时表示该页面自从被装入内存后被修改过,为0时表示未修改过。 置换页面时,最先置换访问位和修改位为00的,其次是01(没被访问但被修改过)的,之后是10(被访问了但没被修改过),最后是11。 2.内聚的类型 功能内聚:完成一个单一功能,各个部分协同工作,缺一不可。 顺序内聚:

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering)

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering) Power Iteration Clustering (PIC) 是一种基于图的聚类算法,用于在大规模数据集上进行高效的社区检测。PIC 算法的核心思想是通过迭代图的幂运算来发现数据中的潜在簇。该算法适用于处理大规模图数据,特别是在社交网络分析、推荐系统和生物信息学等领域具有广泛应用。Spa

学习记录:js算法(二十八):删除排序链表中的重复元素、删除排序链表中的重复元素II

文章目录 删除排序链表中的重复元素我的思路解法一:循环解法二:递归 网上思路 删除排序链表中的重复元素 II我的思路网上思路 总结 删除排序链表中的重复元素 给定一个已排序的链表的头 head , 删除所有重复的元素,使每个元素只出现一次 。返回 已排序的链表 。 图一 图二 示例 1:(图一)输入:head = [1,1,2]输出:[1,2]示例 2:(图

STL经典案例(四)——实验室预约综合管理系统(项目涉及知识点很全面,内容有点多,耐心看完会有收获的!)

项目干货满满,内容有点过多,看起来可能会有点卡。系统提示读完超过俩小时,建议分多篇发布,我觉得分篇就不完整了,失去了这个项目的灵魂 一、需求分析 高校实验室预约管理系统包括三种不同身份:管理员、实验室教师、学生 管理员:给学生和实验室教师创建账号并分发 实验室教师:审核学生的预约申请 学生:申请使用实验室 高校实验室包括:超景深实验室(可容纳10人)、大数据实验室(可容纳20人)、物联网实验

SigLIP——采用sigmoid损失的图文预训练方式

SigLIP——采用sigmoid损失的图文预训练方式 FesianXu 20240825 at Wechat Search Team 前言 CLIP中的infoNCE损失是一种对比性损失,在SigLIP这个工作中,作者提出采用非对比性的sigmoid损失,能够更高效地进行图文预训练,本文进行介绍。如有谬误请见谅并联系指出,本文遵守CC 4.0 BY-SA版权协议,转载请联系作者并注