从图割到图像分割 - 多层图图割

2024-04-12 22:32

本文主要是介绍从图割到图像分割 - 多层图图割,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


从图割到图像分割(三)——多层图图割

完整的了解了图割方法处理图像分割之后,在已有的graphcuts开源代码的情况下,接下来就是自己创作的时间了。

如前面所说,图的构建是很有讲究的,何时采用四邻域,何时采用八邻域,何时采用K近邻,再何时采用全邻域?

这些都是很有讲究的,很多人就是在这上面稍加改动,就能发一些顶级文章。不过确实,通过 Maxflow/Mincut 处理图像时,对图的构造是非常敏感的,哪怕是你改动 Tlink Nlink 的比例,都能产生很大的影响。但敏感归敏感, Maxflow/Mincut 求取的全局最优解,恰是许多研究或能量优化函数中所梦寐以求的。


图论方法在交互式分割中,总是将图像分割成前景和背景两类,即用户选定前景,或用户选定前景/背景,或用户选定背景。然而,很明显,在自然图像中,很多情况下并非只有两类,需要选定多类才能达到较好的分割效果。

由两类扩展成多类,是我导师提出来的想法,并完善,通过多层图方法完成图像中多类的交互式分割。

其中,多类分割的实现方法,也是在最初Graphcuts源码上进行改进,具体可见我的github,MulitLayerGraph。这份代码的主要思想是源自我导师,主要工作是我素未谋面的师兄常峰写的,师兄写的代码比较乱,有些小bug,并且不是用模板来实现的,鉴于我在研究此类问题,并且算是对这类问题非常熟悉了,所以将代码全部重构一下,用模板写了并放在github上面。

从别人的源代码我学到了很多东西,而自己却没有什么贡献,一直感到很惭愧,这份代码应该是我github上面算法含金量最高的了。


多层图的构建

首先,要了解经典Graphcuts是多少层,它是多少层?是两层,即将目标分为两类;

然后,要明白Tlink的含义,Tlink一般都是通过已观测的信息,所以将目标分为两类时,其Tlink都是通过已观测信息得到的;

其次,将以上的两类变成多类,则通过多类观测的信息,构建多类图(这个多类最初在Boykov的文章中乘坐MultiGraph),长得类似这个形状,可以通俗的认为是有多个源点的图,其对Multi-Label问题的优化可具体看Fast Approximate Energy Minimization via Graph Cuts;

我们提出的是MultiLayerGraph,如文章最开始的图所示。每一层(红,蓝,绿)内部的构建都是相同的,如之前的博文所述Nlink,那么上图认为是几层图呢?直观上要么是三层(s,t不算)或五层(s,t各算一层)。然而实际是四层!


Graphcuts类方法分割得到的类数,取决于Tlink的层数


我们假定,Tlink表示的都是相似性的倒数,即越相似,Tlink越小,考虑到最大流最小割算法切断的是最小权值,所以最相似的肯定越可能被切断!

于是乎,我们就采取这样的策略:构建N层图,比如上述的四层图;然后根据观测信息设置每层的Tlink;最后,执行最大流算法,并观测当前节点的Tlink是在哪一层被切断!

多层图一个标准的割应该如右图左边的,右边是不对的,并且通过算法是不能得到的。


如何判断Tlink是在哪里切断的呢?

这就源自最初的Graphcuts算法了

在开源的Graphcuts算法中,在计算最大流时,一直维护着两颗“树”,一棵是由S延伸出来的;一棵是由T延伸出来的。在最后时刻,由这两棵树交界的部分形成最小割。

那么就有这样一个特点,假设当前Tlink被割断,则上面一个点肯定来自S树,下面一个点肯定属于T树。所以通过这个特点,可以判断在哪切断的 :)


这实际上是一种近似的方法,为什么这么说呢?

上面的网络流图中,每一层的节点实际上都是相同的,不同的是Tlink有多层,所以完成一次分类,产生了一些额外的“边”需要计算进来并考虑切断。

不过这个误差不太好估计。

总的来说,图割的结果很取决于参数,一般来说,所有Tlink会统一权值的计算方法,所有Nlink也会统一权值的计算方法;然而TlinkNlink的比例该如何设定?

一般只有实验中来知道吧。



这篇关于从图割到图像分割 - 多层图图割的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/898411

相关文章

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

SAM2POINT:以zero-shot且快速的方式将任何 3D 视频分割为视频

摘要 我们介绍 SAM2POINT,这是一种采用 Segment Anything Model 2 (SAM 2) 进行零样本和快速 3D 分割的初步探索。 SAM2POINT 将任何 3D 数据解释为一系列多向视频,并利用 SAM 2 进行 3D 空间分割,无需进一步训练或 2D-3D 投影。 我们的框架支持各种提示类型,包括 3D 点、框和掩模,并且可以泛化到不同的场景,例如 3D 对象、室

Verybot之OpenCV应用一:安装与图像采集测试

在Verybot上安装OpenCV是很简单的,只需要执行:         sudo apt-get update         sudo apt-get install libopencv-dev         sudo apt-get install python-opencv         下面就对安装好的OpenCV进行一下测试,编写一个通过USB摄像头采

【python计算机视觉编程——7.图像搜索】

python计算机视觉编程——7.图像搜索 7.图像搜索7.1 基于内容的图像检索(CBIR)从文本挖掘中获取灵感——矢量空间模型(BOW表示模型)7.2 视觉单词**思想****特征提取**: 创建词汇7.3 图像索引7.3.1 建立数据库7.3.2 添加图像 7.4 在数据库中搜索图像7.4.1 利用索引获取获选图像7.4.2 用一幅图像进行查询7.4.3 确定对比基准并绘制结果 7.

【python计算机视觉编程——8.图像内容分类】

python计算机视觉编程——8.图像内容分类 8.图像内容分类8.1 K邻近分类法(KNN)8.1.1 一个简单的二维示例8.1.2 用稠密SIFT作为图像特征8.1.3 图像分类:手势识别 8.2贝叶斯分类器用PCA降维 8.3 支持向量机8.3.2 再论手势识别 8.4 光学字符识别8.4.2 选取特征8.4.3 多类支持向量机8.4.4 提取单元格并识别字符8.4.5 图像校正

HalconDotNet中的图像特征与提取详解

文章目录 简介一、边缘特征提取二、角点特征提取三、区域特征提取四、纹理特征提取五、形状特征提取 简介   图像特征提取是图像处理中的一个重要步骤,用于从图像中提取有意义的特征,以便进行进一步的分析和处理。HalconDotNet提供了多种图像特征提取方法,每种方法都有其特定的应用场景和优缺点。 一、边缘特征提取   边缘特征提取是图像处理中最基本的特征提取方法之一,通过检

超越IP-Adapter!阿里提出UniPortrait,可通过文本定制生成高保真的单人或多人图像。

阿里提出UniPortrait,能根据用户提供的文本描述,快速生成既忠实于原图又能灵活调整的个性化人像,用户甚至可以通过简单的句子来描述多个不同的人物,而不需要一一指定每个人的位置。这种设计大大简化了用户的操作,提升了个性化生成的效率和效果。 UniPortrait以统一的方式定制单 ID 和多 ID 图像,提供高保真身份保存、广泛的面部可编辑性、自由格式的文本描述,并且无需预先确定的布局。

基于YOLO8的图片实例分割系统

文章目录 在线体验快速开始一、项目介绍篇1.1 YOLO81.2 ultralytics1.3 模块介绍1.3.1 scan_task1.3.2 scan_taskflow.py1.3.3 segment_app.py 二、核心代码介绍篇2.1 segment_app.py2.2 scan_taskflow.py 三、结语 代码资源:计算机视觉领域YOLO8技术的图片实例分割实

Winfrom中解决图像、文字模糊的方法

1.添加清单 2.将清单中的下面内容取消注释

使用亚马逊Bedrock的Stable Diffusion XL模型实现文本到图像生成:探索AI的无限创意

引言 什么是Amazon Bedrock? Amazon Bedrock是亚马逊云服务(AWS)推出的一项旗舰服务,旨在推动生成式人工智能(AI)在各行业的广泛应用。它的核心功能是提供由顶尖AI公司(如AI21 Labs、Anthropic、Cohere、Meta、Mistral AI、Stability AI以及亚马逊自身)开发的多种基础模型(Foundation Models,简称FMs)。