BLS综述

2024-03-18 22:59
文章标签 综述 bls

本文主要是介绍BLS综述,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

BLS综述

  • 宽度学习基础
  • RBLS&GBLS
  • Convolutional BLS
  • Weighted BLS
  • Fuzzy BLS
  • Multiview BLS
  • Manifold Learning
  • Ensemble Learning

BLS从2017年被陈俊龙教授提出后,发展时间不长且未被广泛使用,参考 《Research Review for Broad Learning System: Algorithms, Theory, and Applications》这篇最新提出的综述,可以捋一捋宽度学习的目前发展

宽度学习基础

关于宽度学习的基础介绍,主要参考陈俊龙教授的《Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture》,关于这篇论文的学习我在之前的博客里略有笔记link

RBLS&GBLS

在《Novel Efficient RNN and LSTM-Like Architectures: Recurrent and Gated Broad Learning Systems and Their Applications for Text Classification》这篇论文中,提出了类似RNN和LSTM的宽度学习系统R-BLS,G-BLS

在NLP问题中,两个句子因素较为关键,一个是序列信息,另一个是 单词重要性。而对于宽度学习而言,因为mapped feature都是同等对待,因此体现不出这两个因素。

这里我们想到改进方式,将特征节点作为时序变化的节点,增强层将作用于X提取信息的重要程度。(注意这里增强层作用的是X而非Z)这也就是R-BLS的结构:
在这里插入图片描述
但我们观察这个结构发现,U作为原先RNN中训练的参数,这里作为了一个超参数。这也是我对这个结构优化性能持怀疑态度的地方

实际上,LSTM也就是在RNN的基础上增加了三个控制门,遗忘门、输入门、输出门,也就是在 Z n Z_n Zn的迭代上不同
在这里插入图片描述

Convolutional BLS

有关BLS和CNN结合的工作较多,尚且还有些困惑

我们知道CNN实际上就是经过卷积、池化等操作的神经网络,可以用BLS中的mapped feature层来代替这个操作。
在这里插入图片描述
也比较类似于上文提到的R-BLS/G-BLS,实际上他们都属于一种层叠式的特征节点《Universal Approximation Capability of Broad
Learning System and Its Structural V ariations》,但这类节点间的参数都是随机确定的。
在这里插入图片描述
同时还有另一种BCNN的网络结构,参考《CNN-Based Broad Learning System》,在这篇论文中对于feature层使用Adam algorithm进行池化层和卷积层的参数优化。但是我没有很明白其中细节,这篇论文内容稍短只有5页。
在这里插入图片描述

对于另外一篇《A CNN-Based Broad Learning System 》,在这篇论文中对于特征节点是用随机确定的卷积层和池化层来提取特征节点,增强层则是通过PCA方法获取。
在这里插入图片描述
实验部分是在手写字方面取得好的效果。

最后一篇关于CNN参考的论文是2020年发表的《Broad Convolutional Neural Network Based Industrial Process Fault Diagnosis With Incremental Learning Capability》,我还没有阅读到原文的内容,仅仅通过摘要和综述描写,判断它的结构应该是先建立一个普通的CNN,在这个基础上添加增强层,并可以通过增量学习逐步增加增强层节点来增强性能,将增强层的节点视为卷积和池化层。
在这里插入图片描述
对于这种结构我较为认可,因为这种条件下的增强层节点虽然是随机权值,但可以通过权值W控制是否采用或者变相提取信息。(!或许这也就是之前CNN卷积随机确认的证明)

Weighted BLS

参考《Weighted Broad Learning System and Its Application in Nonlinear Industrial Process Modeling》
在这篇论文中,主要是对输入的样本进行权值分配,努力排除一些噪声干扰。
在这里插入图片描述
这里设置一个新的变量 θ \theta θ,初始化为单位矩阵。
在这里插入图片描述
最终的结束条件是 W m W_m Wm W m − 1 W_{m-1} Wm1之间的差别在一定范围内。
那么这个问题的关键在于 θ \theta θ的更新策略,文章使用了一些方法:
1)Huber Weight Function
2)Fair Weight Function
3)KED and PCA
(略,待填)

Fuzzy BLS

这里面涉及到一些模糊控制理论,这里主要是针对于大量高维数据,我们想通过一些模糊规则对数据进行降维处理,从而减少训练时间。文中提到的经典TS模糊系统,这里我们相当于在特征节点层用一些子模糊系统来代替之前的权值来进行特征提取。

Multiview BLS

《Multi-View Broad Learning System for Primate Oculomotor Decision Decoding》
这里引用的论文主要是将BLS应用在一个生物实验上,对于灵长类动物的眼球运动的决策。对于同一个数据源用不同的视图的数据,增强学习性能。

MvBLS结构
在这里插入图片描述
这里我们使用结构如上图:
输入两个视图数据 X A X^A XA X B X^B XB分别进行特征提取为 Z A Z^A ZA Z B Z^B ZB,然后共同建立增强层 H H H,最后将 Z A , Z B , H Z^A,Z^B,H ZA,ZB,H作为整体进行岭回归获取网络权值。

Manifold Learning

首先引用知乎上面一个非常形象化的定性解释:link

高维数据必然存在很多数据上的冗余,例如二维平面表示一个圆的时候,圆内部的空间是空的(冗余)。实际上我们只需要通过极坐标用半径就可以表示这个圆,这就是将二维数据表示成了一维数据。

另一个问题,例如三维空间内,地球。我们想得到上海到北京的距离,欧氏距离则是直接计算直线距离,而实际上我们需要的是将三维地球展开成平面后得到的距离。

流行学习关注的就是数据本身的流行结构,流形学习认为i我们观察到的数据实际上是由一个低维流形映射到高维空间上去的。所以针对上述的两个问题,我们通过流行学习对原始数据进行非线性+降维去冗余刻画事物的本质,并且能够得到更合理的“距离表示”。

比较常见的几种方法有
拉普拉斯特征映射 ,参考
这里应用了拉普拉斯矩阵 L = D − W L=D-W L=DW,目的是让之前保持近距离的数据仍然能保持近距离,具体的数学推导见链接。

在《Discriminative graph regularized broad learning system for image recognition》这篇论文中建立了一个新的GBLS,即在目标loss函数那里考虑到数据在变化维度时的一致性。
在这里插入图片描述
文中主要考虑了 E G E_G EG的规划问题,并以此提出了新的权值公式

Ensemble Learning

关于集成学习,其实就是三个臭皮匠顶一个诸葛亮的故事,训练多个子系统综合考虑,这里不再赘述。

这篇关于BLS综述的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/823954

相关文章

kaggle竞赛宝典 | Mamba模型综述!

本文来源公众号“kaggle竞赛宝典”,仅用于学术分享,侵权删,干货满满。 原文链接:Mamba模型综述! 型语言模型(LLMs),成为深度学习的基石。尽管取得了令人瞩目的成就,Transformers仍面临固有的局限性,尤其是在推理时,由于注意力计算的平方复杂度,导致推理过程耗时较长。 最近,一种名为Mamba的新型架构应运而生,其灵感源自经典的状态空间模型,成为构建基础模型的有力替代方案

AI文献综述神器,有这一款就够了!

我是娜姐 @迪娜学姐 ,一个SCI医学期刊编辑,探索用AI工具提效论文写作和发表。 当前的AI辅助文献综述的工具有很多,如果说功能最强大的,娜姐无疑要推SciSpace了。 SciSpace利用强大的AI算法,理解并建立研究论文之间的联系,可以大大提升文献综述的质量和效率。并且其功能还在不断更新和完善。        1 强大的语义搜索功能 传统的关键词搜索可能会遗漏相关文献,Sc

20180108文献综述书写感悟

在写文献综述理清各章节脉络的时候,发现了以下几个问题,共勉之。 1、资源对接问题:章节应该明确标注出处,来源,例如(from 百度/某篇文章链接),不写,则默认为原创。 以方便下一个接着写的同学清晰了解资料来源。 2、质量低:上任对发展史做了整理,但并没有输出成原创性文字,重新阅读加大理解成本,并且思路不新不全局不清晰,需要重新绘之。

Netty源码解析4-Handler综述

Netty中的Handler简介 Handler在Netty中,占据着非常重要的地位。Handler与Servlet中的filter很像,通过Handler可以完成通讯报文的解码编码、拦截指定的报文、 统一对日志错误进行处理、统一对请求进行计数、控制Handler执行与否。一句话,没有它做不到的只有你想不到的 Netty中的所有handler都实现自ChannelHandler接口。按照输入

如何快速写文献综述

真实参考文献的AI论文生成器:AIPaperDone - AI 万字论文生成 在本文中,你将学习如何为不同的学术领域撰写文献综述。 请注意: 文献综述并不是关于小说或诗歌等文学作品的。当我们说"文献",我们指的是某个领域的"研究"。撰写文献综述意味着收集你主题的关键资料,对它们进行概述,并分析它们之间的关系。 以下是如何快速完成的方法。 什么是文献综述? 文献综述是一篇学术论

零样本学习(zero-shot learning)——综述

-------本文内容来自对论文A Survey of Zero-Shot Learning: Settings, Methods, and Applications 的理解和整理,这里省去了众多的数学符号,以比较通俗的语言对零样本学习做一个简单的入门介绍,用词上可能缺乏一定的严谨性。一些图和公式直接来自于论文,并且省略了论文中讲的比较细的东西,如果感兴趣建议还是去通读论文 注1:为了方便,文中

卷积神经网络综述

摘要 本文对卷积神经网络(Convolutional Neural Network,CNN)进行了全面综述。首先介绍了卷积神经网络的发展历程,包括早期的理论基础和关键突破。接着详细阐述了卷积神经网络的结构组成,包括卷积层、池化层、全连接层等,分析了各层的作用和特点。然后探讨了卷积神经网络在图像识别、目标检测、语义分割等多个领域的应用,并介绍了一些典型的应用案例。此外,还讨论了卷积神经网络的训练方

复旦大学王龑团队发布《静态与动态情感的面部表情识别》综述

论文链接:https://arxiv.org/pdf/2408.15777 复旦大学,王龑博士后领衔,发布《静态与动态情感的面部表情识别》(A Survey on Facial Expression Recognition of Static and Dynamic Emotions)综述,对基于图像的静态面部表情识别(SFER)和基于视频的动态面部表情识别(DFER)方法进行了全面综述,从

【论文阅读】语义通信安全研究综述(2024)

摘要 语义通信系统架构 笔记 内容概述 引言:介绍了语义通信技术的背景、发展和重要性,以及它在无线通信系统中面临的安全挑战。 语义通信系统架构及安全攻击:描述了一个端到端的深度学习语义通信系统的基本架构,包括语义编解码器、信道编解码器和收发端知识库等模块,并讨论了这些模块可能遇到的安全攻击,如窃听、篡改等。 语义通信模型安全研究现状:详细讨论了模型安全攻击手段(数据投毒、后门

《基础模型时代的图像分割》研究综述

图像分割的目标:将像素划分为不同的组别 现代图像分割方法:①适配基础模型(例如CLIP、Stable Diffusion、DINO)用于图像分割②开发专门的分割基础模型(如SAM) 一、本综述的两大基本研究方向 通用图像分割(即语义分割、实例分割、全景分割) 可提示的图像分割(即交互式分割、参考分割、少样本分割):指定图像要分割的内容 本综述的贡献: 对基于著名基础模型的最近图像分割方