基于OpenVINO实现无监督异常检测

2024-06-09 06:52

本文主要是介绍基于OpenVINO实现无监督异常检测,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

    异常检测(AD) 在欺诈检测、网络安全和医疗诊断等关键任务应用中至关重要。由于数据的高维性和底层模式的复杂性,图像、视频和卫星图像等视觉数据中的异常检测尤其具有挑战性。然而,视觉异常检测对于检测制造中的缺陷、识别监控录像中的可疑活动以及检测医学图像中的异常至关重要。

    在本文中,您将学习如何使用OpenVINO 工具包中的FiftyOne和Anomalib对视觉数据执行异常检测。为了演示,我们将使用MVTec AD 数据集,其中包含具有划痕、凹痕和孔洞等异常的各种物体的图像。

    它涵盖以下内容:

    • 在 FiftyOne 中加载 MVTec AD 数据集

    • 使用 Anomalib 训练异常检测模型

    • 评估 FiftyOne 中的异常检测模型

安装依赖项

    确保你在虚拟环境中运行它python=3.10。Anomalib 需要 Python 3.10,因此请确保你安装了正确的版本。

conda create -n anomalib_env python=3.10conda activate anomalib_env

    此后,按照Anomalib README中的说明从源代码安装 Anomalib及其依赖项。这些在 Google Colab 上可能需要一些时间,但对于本地安装应该很快:

pip install -U torchvision einops FrEIA timm open_clip_torch imgaug lightning kornia openvino git+https://github.com/openvinotoolkit/anomalib.git

    我们准备安装更多软件包。现在您可以明白为什么我们建议为该项目使用虚拟环境!

    • huggingface_hub用于加载 MVTec AD 数据集

    • clip用于计算图像嵌入

    • umap-learn用于降维

pip install -U huggingface_hub umap-learn git+https://github.com/openai/CLIP.git

加载和可视化 MVTec AD 数据集

    现在,让我们从FiftyOne导入我们需要的所有相关模块:​​​​​​​

import fiftyone as fo # 基础库和应用程序import fiftyone.brain as fob # ML 方法import fiftyone.zoo as foz # zoo 数据集和模型from fiftyone import ViewField as F # 定义视图的助手import fiftyone.utils.huggingface as fouh # Hugging Face 集成

    并从 Hugging Face Hub 加载 MVTec AD 数据集:

dataset = fouh.load_from_hub("Voxel51/mvtec-ad", persistent=True, overwrite=True)

    在继续之前,让我们看一下FiftyOne 应用程序中的数据集:

session = fo.launch_app(dataset)

图片

    该数据集包含 12 个对象类别的 5354 张图像。每个类别都有“良好”和“异常”图像,这些图像存在划痕、凹痕和孔洞等缺陷。每个异常样本还带有一个掩模,用于定位图像中的缺陷区域。

    缺陷标签因类别而异,这在现实世界的异常检测场景中很常见。在这些场景中,您会为每个类别训练不同的模型。在这里,我们将介绍一个类别的流程,您可以将相同的步骤应用于其他类别。

    还有一点需要注意的是,数据集被分为训练集和测试集。训练集只包含“良好”图像,而测试集则包含“良好”和“异常”图像。

    在训练模型之前,让我们深入研究数据集。通过计算图像嵌入并在低维空间中可视化它们,我们可以了解数据中隐藏的结构和模式。首先,我们将使用 CLIP 模型计算数据集中所有图像的嵌入:​​​​​​​

model = foz.load_zoo_model( "clip-vit-base32-torch" )   # 从 zoo 加载 CLIP 模型
# 计算数据集的嵌入dataset.compute_embeddings(     model=model, embeddings_field= "clip_embeddings" , batch_size= 64 ) 
# 使用 UMAP 对嵌入进行降维fob.compute_visualization(     dataset, embeddings= "clip_embeddings" , method= "umap" , brain_key= "clip_vis" )

    刷新 FiftyOne 应用程序,单击“+”选项卡,然后选择“Embeddings”。从下拉菜单中选择“all_clip_vis”。您将看到 2D 空间中图像嵌入的散点图,其中每个点对应于数据集中的一个样本。

图片

    使用颜色下拉菜单,注意嵌入如何根据对象类别进行聚类。这是因为 CLIP 对图像的语义信息进行编码。此外,CLIP 嵌入不会根据缺陷类型在类别内进行聚类。

训练异常检测模型

    现在我们对数据集有了了解,我们准备使用 Anomalib 训练异常检测模型。

    任务:Anomalib 支持图像的分类、检测和分割任务。我们将重点关注分割,其中模型预测图像中的每个像素是否异常,并创建一个定位缺陷的掩码。

    模型:Anomalib 支持多种异常检测算法。在本演练中,我们将使用两种算法:

    • PaDiM:用于异常检测和定位的补丁分布建模框架

    • PatchCore:迈向工业异常检测的全面召回

    预处理:在训练模型之前,我们将在本演练中将图像大小调整为 256x256 像素。通过 Torchvision 的 Resize 类将其添加为转换,我们可以在训练和推理过程中动态调整图像大小。

    从Anomalib 和辅助模块导入处理图像和路径所需的模块:

​​​​​​​

import numpy as npimport osfrom pathlib import Pathfrom PIL import Imagefrom torchvision.transforms.v2 import Resize
from anomalib import TaskTypefrom anomalib.data.image.folder import Folderfrom anomalib.deploy import ExportType, OpenVINOInferencerfrom anomalib.engine import Enginefrom anomalib.models import Padim, Patchcore

    现在,定义一些在整个笔记本中使用的常量。

    • OBJECT:我们将重点关注的对象类别。在本演练中,我们将使用“瓶子”。如果您想要循环遍历类别,可以使用 dataset.distinct("category.label") 从数据集中获取类别列表。

    • ROOT_DIR:Anomalib 将在其中查找图像和掩码的根目录。我们的数据已存储在磁盘上,因此我们只需将文件符号链接到 Anomalib 所需的目录即可。

    • TASK:我们正在执行的任务。我们将在本演练中使用“分段”。

    • IMAGE_SIZE:在训练模型之前调整图像的大小。我们将使用 256x 256 像素。

OBJECT = "bottle"  ## 要训练的对象ROOT_DIR = Path( "/tmp/mvtec_ad" ) ## 用于存储 anomalib 数据的根目录TASK = TaskType.SEGMENTATION ## 模型的任务类型IMAGE_SIZE = ( 256 , 256 ) ## 预处理图像大小以保证均匀性

    对于给定的对象类型(类别),create_datamodule()下面的函数会创建一个 AnomalibDataModule对象。这将被传递到我们引擎的fit()方法来训练模型,并用于实例化数据加载器以进行训练和验证。

    代码可能看起来很复杂,所以让我们分解一下发生了什么:

    • 我们创建的数据子集仅包含“良好”的训练图像和“异常”图像以供验证。

    • 我们将图像和掩码符号链接到 Anomalib 期望的目录。

    • 我们从 Anomalib 实例化并设置一个数据模块Folder,它是自定义数据集的通用类。

    💡 也可以DataLoader从头开始创建一个 torch 并将其传递给引擎的fit()方法。这可以让你更好地控制数据加载过程。这留给读者练习 😉。

def create_datamodule(object_type, transform=None):    ## Build transform    if transform is None:        transform = Resize(IMAGE_SIZE, antialias=True)
    normal_data = dataset.match(F("category.label") == object_type).match(        F("split") == "train"    )    abnormal_data = (        dataset.match(F("category.label") == object_type)        .match(F("split") == "test")        .match(F("defect.label") != "good")    )
    normal_dir = Path(ROOT_DIR) / object_type / "normal"    abnormal_dir = ROOT_DIR / object_type / "abnormal"    mask_dir = ROOT_DIR / object_type / "mask"
    # create directories if they do not exist    os.makedirs(normal_dir, exist_ok=True)    os.makedirs(abnormal_dir, exist_ok=True)    os.makedirs(mask_dir, exist_ok=True)
    if not os.path.exists(str(normal_dir)):        normal_data.export(            export_dir=str(normal_dir),            dataset_type=fo.types.ImageDirectory,            export_media="symlink",        )
    for sample in abnormal_data.iter_samples():        base_filename = sample.filename        dir_name = os.path.dirname(sample.filepath).split("/")[-1]        new_filename = f"{dir_name}_{base_filename}"        if not os.path.exists(str(abnormal_dir / new_filename)):            ## symlink anomalous image into Anomalib abnormal dir            os.symlink(sample.filepath, str(abnormal_dir / new_filename))        if not os.path.exists(str(mask_dir / new_filename)):            ## symlink mask into Anomalib mask dir            os.symlink(sample.defect_mask.mask_path, str(mask_dir / new_filename))    ## Create a DataModule in Anomalib    datamodule = Folder(        name=object_type,        root=ROOT_DIR,        normal_dir=normal_dir,        abnormal_dir=abnormal_dir,        mask_dir=mask_dir,        task=TASK,        transform=transform    )    datamodule.setup()    return datamodule

    现在,我们可以将所有内容整合在一起。train_and_export_model()下面的函数使用 Anomalib 的类训练异常检测模型Engine,将模型导出到 OpenVINO,并返回模型“推理器”对象。推理器对象用于对新图像进行预测。

def  train_and_export_model ( object_type, model, transform= None ):     ## 在我们的数据上训练模型    datamodule = create_datamodule(object_type, transform=transform)     engine = Engine(task=TASK)     engine.fit(model=model, datamodule=datamodule) 
    ## 将模型导出为 OpenVINO 格式以进行快速推理    engine.export(         model=model,         export_type=ExportType.OPENVINO,     )     output_path = Path(engine.trainer.default_root_dir) 
    openvino_model_path = output_path / "weights" / "openvino" / "model.bin"     metadata = output_path / "weights" / "openvino" / "metadata.json"     ## 从导出加载推理对象 inferencer     = OpenVINOInferencer(         path=openvino_model_path,         metadata=metadata,         device= "CPU" ,     )     return inferencer

    我们先尝试PaDiM一下。训练过程应该不到一分钟:

model = Padim()
inferencer = train_and_export_model(OBJECT, model)

    就这样,我们就有了一个针对“瓶子”类别进行训练的异常检测模型。让我们在单个图像上运行推理器并检查结果:

## get the test split of the datasettest_split = dataset.match(F("category.label") == OBJECT).match(F("split") == "test")
## get the first sample from the test splittest_image = Image.open(test_split.first().filepath)
output = inferencer.predict(image=test_image)print(output)
ImageResult(image=[[[255 255 255]  [255 255 255]  [255 255 255]  ...  [255 255 255]  [255 255 255]  [255 255 255]]
  ...  [255 255 255]  [255 255 255]  [255 255 255]]], pred_score=0.7751642969087686, pred_label=1, anomaly_map=[[0.32784402 0.32784402 0.32784414 ... 0.3314721  0.33147204 0.33147204] [0.32784402 0.32784402 0.32784414 ... 0.3314721  0.33147204 0.33147204] [0.32784408 0.32784408 0.3278442  ... 0.33147222 0.33147216 0.33147216] ... [0.32959    0.32959    0.32959005 ... 0.3336093  0.3336093  0.3336093 ] [0.3295899  0.3295899  0.32958996 ... 0.33360928 0.33360928 0.33360928] [0.3295899  0.3295899  0.32958996 ... 0.33360928 0.33360928 0.33360928]], gt_mask=None, gt_boxes=None, pred_boxes=None, box_labels=None, pred_mask=[[0 0 0 ... 0 0 0] [0 0 0 ... 0 0 0] [0 0 0 ... 0 0 0] ... [0 0 0 ... 0 0 0] [0 0 0 ... 0 0 0] [0 0 0 ... 0 0 0]], heat_map=[[[153 235 255]  [153 235 255]  [153 235 255]  ...  [153 236 255]  [153 236 255]  [153 236 255]]  ...  [153 238 255]  [153 238 255]  [153 238 255]]], segmentations=[[[255 255 255]  [255 255 255]  [255 255 255]  ...  [255 255 255]  [255 255 255]  [255 255 255]]  ...  [255 255 255]  [255 255 255]  [255 255 255]]])

    输出包含一个标量异常分数pred_score、一个pred_mask表示预测异常区域的和一个显示每个像素异常分数的热图 anomaly_map。这些都是理解模型预测的宝贵信息。

    下面的函数run_inference()将以 FiftyOne 样本集合(例如我们的测试集)作为输入,以及推理器对象和用于将结果存储在样本中的键。它将对集合中的每个样本运行模型并存储结果。阈值参数充当异常分数的截止值。如果分数高于阈值,则样本被视为异常。在此示例中,我们将使用 0.5 的阈值,但您可以尝试使用不同的值。

def run_inference(sample_collection, inferencer, key, threshold=0.5):    for sample in sample_collection.iter_samples(autosave=True, progress=True):        output = inferencer.predict(image=Image.open(sample.filepath))
        conf = output.pred_score        anomaly = "normal" if conf < threshold else "anomaly"
        sample[f"pred_anomaly_score_{key}"] = conf        sample[f"pred_anomaly_{key}"] = fo.Classification(label=anomaly)        sample[f"pred_anomaly_map_{key}"] = fo.Heatmap(map=output.anomaly_map)        sample[f"pred_defect_mask_{key}"] = fo.Segmentation(mask=output.pred_mask)

    让我们对测试分割进行推理,并在 FiftyOne 应用程序中可视化结果:

run_inference(test_split, inferencer, "padim")session = fo.launch_app(view=test_split)

图片

评估异常检测模型

    我们有一个异常检测模型,但我们如何知道它是否好用?首先,我们可以使用精度、召回率和 F1 分数指标来评估模型。FiftyOne 的评估 API使这变得简单。我们将评估模型的全图像分类性能以及分割性能。

    我们需要准备评估数据。首先,我们需要为“正常”图像添加空掩码,以确保评估公平:

for sample in test_split.iter_samples(autosave=True, progress=True):    if sample["defect"].label == "good":        sample["defect_mask"] = fo.Segmentation(            mask=np.zeros_like(sample["pred_defect_mask_padim"].mask)        )

    我们还需要确保真实值和预测值之间的命名/标签的一致性。我们将所有“良好”图像重命名为“正常”,并将每种类型的异常重命名为“异常”:

old_labels = test_split.distinct("defect.label")label_map = {label:"anomaly" for label in old_labels if label != "good"}label_map["good"] = "normal"mapped_view = test_split.map_labels("defect", label_map)session.view = mapped_view.view()

图片

    对于分类,我们将使用二元评估,其中“正常”为负类,“异常”为正类:

eval_classif_padim = mapped_view.evaluate_classifications(    "pred_anomaly_padim",    gt_field="defect",    eval_key="eval_classif_padim",    method="binary",    classes=["normal", "anomaly"],)eval_classif_padim.print_report()
               precision    recall  f1-score   support
      normal       0.95      0.90      0.92        20     anomaly       0.97      0.98      0.98        63
    accuracy                           0.96        83   macro avg       0.96      0.94      0.95        83weighted avg       0.96      0.96      0.96        83

比较异常检测模型

    虽然异常检测是无监督的,但这并不意味着我们不能比较模型并选择最适合我们用例的模型。我们可以在同一数据上训练多个模型,并使用 F1 分数、准确率和召回率等指标比较它们的性能。我们还可以通过检查它们生成的掩码和热图来直观地比较模型。

    我们重复一下PatchCore模型的训练过程,并比较一下这两个模型:

## 训练 Patchcore 模型并运行推理
model = Patchcore() 
## 这将需要更长的时间来训练,但仍应少于 5 分钟inferencer = train_and_export_model(OBJECT, model) 
run_inference(mapped_view, inferencer, "patchcore" ) 
## 在分类任务上评估 Patchcore 模型eval_classif_patchcore = tagged_view.evaluate_classifications(     "pred_anomaly_patchcore" ,     gt_field= "defect" ,     eval_key= "eval_classif_patchcore" ,     method= "binary" ,     classes=[ "normal" , "anomaly" ], ) 
eval_classif_patchcore.print_report()
              precision    recall  f1-score   support
      normal       0.95      1.00      0.98        20     anomaly       1.00      0.98      0.99        63
    accuracy                           0.99        83   macro avg       0.98      0.99      0.98        83weighted avg       0.99      0.99      0.99        83
eval_seg_patchcore = mapped_view.match(F("defect.label") == "anomaly").evaluate_segmentations(    "pred_defect_mask_patchcore",    gt_field="defect_mask",    eval_key="eval_seg_patchcore",)eval_seg_patchcore.print_report(classes=[0, 255])session.view = mapped_view.shuffle().view()
      precision    recall  f1-score   support
           0       0.99      0.95      0.97 47143269.0         255       0.60      0.85      0.70 3886731.0
   micro avg       0.95      0.95      0.95 51030000.0   macro avg       0.80      0.90      0.84 51030000.0weighted avg       0.96      0.95      0.95 51030000.0

    这些指标支持了我们在应用程序中看到的结果:PatchCore 对“异常”类别的召回率更高,但准确率较低。这意味着它更有可能发现异常,但也更有可能做出误报预测。毕竟,PatchCore 是为工业异常检测中的“全面召回”而设计的。

图片

    通过查看热图,我们还可以看到每个模型更擅长检测哪些类型的异常。两个模型的集合可能对不同类型的异常更具鲁棒性。

下一步是什么

    在本演练中,我们学习了如何使用 FiftyOne 和 Anomalib 对视觉数据执行异常检测。虽然我们训练了两个模型,但我们只触及了视觉异常检测的皮毛。

    如果你想提高性能,还有许多其他方法可以改变:

    • 算法:我们仅使用了 PaDiM 和 PatchCore。Anomalib 目前支持 13 种算法!

    • Backbone:用于特征提取的模型架构

    • 超参数:异常检测算法特有的参数。对于 PatchCore,这包括coreset_sampling_ratio和num_neighbors。

    • 数据增强:人为增加训练集的大小并提高模型泛化的技术。

    • 定制解决方案:引入新算法/技术永远不会太晚!

—THE END—

这篇关于基于OpenVINO实现无监督异常检测的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1044466

相关文章

python使用watchdog实现文件资源监控

《python使用watchdog实现文件资源监控》watchdog支持跨平台文件资源监控,可以检测指定文件夹下文件及文件夹变动,下面我们来看看Python如何使用watchdog实现文件资源监控吧... python文件监控库watchdogs简介随着Python在各种应用领域中的广泛使用,其生态环境也

el-select下拉选择缓存的实现

《el-select下拉选择缓存的实现》本文主要介绍了在使用el-select实现下拉选择缓存时遇到的问题及解决方案,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的... 目录项目场景:问题描述解决方案:项目场景:从左侧列表中选取字段填入右侧下拉多选框,用户可以对右侧

Python pyinstaller实现图形化打包工具

《Pythonpyinstaller实现图形化打包工具》:本文主要介绍一个使用PythonPYQT5制作的关于pyinstaller打包工具,代替传统的cmd黑窗口模式打包页面,实现更快捷方便的... 目录1.简介2.运行效果3.相关源码1.简介一个使用python PYQT5制作的关于pyinstall

使用Python实现大文件切片上传及断点续传的方法

《使用Python实现大文件切片上传及断点续传的方法》本文介绍了使用Python实现大文件切片上传及断点续传的方法,包括功能模块划分(获取上传文件接口状态、临时文件夹状态信息、切片上传、切片合并)、整... 目录概要整体架构流程技术细节获取上传文件状态接口获取临时文件夹状态信息接口切片上传功能文件合并功能小

python实现自动登录12306自动抢票功能

《python实现自动登录12306自动抢票功能》随着互联网技术的发展,越来越多的人选择通过网络平台购票,特别是在中国,12306作为官方火车票预订平台,承担了巨大的访问量,对于热门线路或者节假日出行... 目录一、遇到的问题?二、改进三、进阶–展望总结一、遇到的问题?1.url-正确的表头:就是首先ur

C#实现文件读写到SQLite数据库

《C#实现文件读写到SQLite数据库》这篇文章主要为大家详细介绍了使用C#将文件读写到SQLite数据库的几种方法,文中的示例代码讲解详细,感兴趣的小伙伴可以参考一下... 目录1. 使用 BLOB 存储文件2. 存储文件路径3. 分块存储文件《文件读写到SQLite数据库China编程的方法》博客中,介绍了文

Redis主从复制实现原理分析

《Redis主从复制实现原理分析》Redis主从复制通过Sync和CommandPropagate阶段实现数据同步,2.8版本后引入Psync指令,根据复制偏移量进行全量或部分同步,优化了数据传输效率... 目录Redis主DodMIK从复制实现原理实现原理Psync: 2.8版本后总结Redis主从复制实

JAVA利用顺序表实现“杨辉三角”的思路及代码示例

《JAVA利用顺序表实现“杨辉三角”的思路及代码示例》杨辉三角形是中国古代数学的杰出研究成果之一,是我国北宋数学家贾宪于1050年首先发现并使用的,:本文主要介绍JAVA利用顺序表实现杨辉三角的思... 目录一:“杨辉三角”题目链接二:题解代码:三:题解思路:总结一:“杨辉三角”题目链接题目链接:点击这里

基于Python实现PDF动画翻页效果的阅读器

《基于Python实现PDF动画翻页效果的阅读器》在这篇博客中,我们将深入分析一个基于wxPython实现的PDF阅读器程序,该程序支持加载PDF文件并显示页面内容,同时支持页面切换动画效果,文中有详... 目录全部代码代码结构初始化 UI 界面加载 PDF 文件显示 PDF 页面页面切换动画运行效果总结主

SpringBoot实现基于URL和IP的访问频率限制

《SpringBoot实现基于URL和IP的访问频率限制》在现代Web应用中,接口被恶意刷新或暴力请求是一种常见的攻击手段,为了保护系统资源,需要对接口的访问频率进行限制,下面我们就来看看如何使用... 目录1. 引言2. 项目依赖3. 配置 Redis4. 创建拦截器5. 注册拦截器6. 创建控制器8.