RUL论文阅读—— A Novel Evaluation Framework for Unsupervised Domain Adaption on Remaining Useful Lifetime

本文主要是介绍RUL论文阅读—— A Novel Evaluation Framework for Unsupervised Domain Adaption on Remaining Useful Lifetime,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

RUL论文阅读

——A Novel Evaluation Framework for Unsupervised Domain Adaption on Remaining Useful Lifetime
link : article code

一、 Introduction

由PMD(Predictive Maintenance) 提出 RUL

DNN(require large amount data 但是RUL问题失败数据少 data imbalence)传统有监督学习方法不行

提出无监督DA,介绍DA。对于RUL就是P(Xs)不等于P(Xt)也就是边缘分布不同,所以训练这个模型主要是bridge the difference of margibal feature distributions

扩充: 迁移学习的几种分类方式
迁移学习的一种分类方式 https://www.jianshu.com/p/e4a293bb3614
Reference A Survey on Transfer Learning

对于DA,是满足两个条件 :一、有标签的数据只能用在source domain 二、不同域(边缘分布不同)相同task(条件分布相同)
在RUL中正好合适,
对于第一点,由于RUL需要失败的数据,数据不平衡,也没有标签。但是有一个相关的有标签的数据集可以来利用,然后用这个数据集训练好的模型,给自己需要的target dataset
对于第二点,不同工况不同机器不同可以看成是边缘分布不同,但是target是相同的都是进行预测RUL。

DA apply on RUL 利用DNNs 和 unsupervised DA,针对Remaining useful lifetime prediction via deep domain adaptation文章进行分析 两个主要问题:一、系统数量有限 二、可收集的无标签的系统数量(接近失效的无标签系统)

解决这两个问题,提出新的评估框架,按照一些之前的文章标准,进行比较

剩下章节的介绍

二、Relation Work

RUL Estimation with DNNs

由DNN引出CNN/LSTM 由于数据是time series 介绍各类文章CNN/LSTM applied on RUL

Unsupervised Domain Adaption

DA method 基于参数 基于特征 基于数据 大多数用基于特征,TCA(Pan)/ GFK(Long)一个是基于MMD显式距离度量,一个是基于几何特征(对应迁移导论书中第六章和第七章)

DNN 的能力就是特征提取,所以利用DNN应用到Unsupervised DA 里面有两个方法,分别是moment matching and adversarial training

moment matching 是 利用metric 减少marginal distribution metric including MMD JAN joint JAN
adversarial training 是 有一个域判别器进行对抗训练

DA for RUL Estimation

这方面工作少,主要针对 unsupervised DA 故障诊断和 supervsied DA for RUL
最近Da Costa 证明了对抗方法在 LSTM on CMAPSS上的可行性

Evaluation Framework for RUL

pair source and target to form tasks
metric 和其他的一样

三、Methods

Evaluation framework

两个影响DA表现的方面
一个是target domian的数据数量 20% 40 60 80 100
第二个是target domian 数据库下降程度 在数据failure 开始 保留20% 40 60 80 100
提出三个问题 首先多少system和多少下降程度最好相对于无DA 第二个是负迁移
有25个scenario 从最简单100 100 到 20 20%(few systems and no degradation)

DA Approach

选择JAN和DANN
JAN loss CE+JMMD
DANN loss CE+BCE
几点改变:一、JAN变成 RMSE+JMMD
二、JAN backbone change AlexNet to CNN(Li)1d-CNN+two FC
三、not pre-train for backbone net

四、Experimental Setup

Data Preparation

介绍CMAPSS

12个task选8个

选14个sensors 、min-max scaling、 sliding window with one step to obtain frames of unified length in time demension with size 30、 pad zero if necessary 、piece-wise linear degradation model with maximum 125

Training Procedure

weight bias initialization、activation functions、loss RMSE、optimization ADam、epoch
试验次数 实验环境

Evaluation Metric

RMSE and RUL-score

Hyperparameter Tuning

选择一个实验取得lamada DANN and JAN

五、Experimental Results

Influence of data Scenarios

对两种factor进行分析
metric 值 图解释含义

Evaluation of Methods

哪个方法好?分析图

Discussion and Caveats

超参数确定
scale 方法
可能因为CMAPSS是模拟数据集(low varience among differnet systems),对于真实的数据集可能DA更好
可以降低到20%以下

六、Conclusion

总结全文
提出一种Unsurpervised DA for RUL。之前的scenario不必要,所有过高的评价
我们框架考虑了两个因素:数量和下降程度,
相比之前DA Costa的我们的优点 同时 unsupervised DA更适用于实际情况
我们描述了unsupervised DA和我们的框架b比较方法

Reference:
1.https://www.jianshu.com/p/e4a293bb3614
2.S. J. Pan and Q. Yang, “A Survey on Transfer Learning,” in IEEE Transactions on Knowledge and Data Engineering, vol. 22, no. 10, pp. 1345-1359, Oct. 2010, doi: 10.1109/TKDE.2009.191.

这篇关于RUL论文阅读—— A Novel Evaluation Framework for Unsupervised Domain Adaption on Remaining Useful Lifetime的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/410957

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

Spring Framework系统框架

序号表示的是学习顺序 IoC(控制反转)/DI(依赖注入): ioc:思想上是控制反转,spring提供了一个容器,称为IOC容器,用它来充当IOC思想中的外部。 我的理解就是spring把这些对象集中管理,放在容器中,这个容器就叫Ioc这些对象统称为Bean 用对象的时候不用new,直接外部提供(bean) 当外部的对象有关系的时候,IOC给它俩绑好(DI) DI和IO

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

引言 今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 大语言模型已被广泛采用,但推理时需要大量的GPU内存。我们开发了一种Int8矩阵乘法的过程,用于Transformer中的前馈和注意力投影层,这可以将推理所需