【CV】视频图像背景分割MOG2,KNN,GMG

2024-05-28 01:44

本文主要是介绍【CV】视频图像背景分割MOG2,KNN,GMG,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

当涉及背景分割器(Background Subtractor)时,Mixture of Gaussians(MOG2)、K-Nearest Neighbors(KNN)和Geometric Multigid(GMG)是常用的算法。它们都用于从视频流中提取前景目标,并在计算机视觉和图像处理任务中发挥重要作用。

Mixture of Gaussians (MOG2):
MOG2 是一种基于高斯混合模型的背景分割器,它使用多个高斯分布对每个像素的颜色进行建模。该模型适用于场景中有很多变化和动态光照条件的情况。MOG2 背景分割器在处理光照变化和动态背景时表现良好。

K-Nearest Neighbors (KNN):
KNN 背景分割器利用K最近邻算法来识别像素的前景或背景。该算法根据像素的颜色特征和邻近像素的情况进行分类。KNN 背景分割器在处理运动目标和部分遮挡时可能表现良好。

Geometric Multigid (GMG):
GMG 背景分割器结合了几何学和统计学的方法,通过对几何变化和像素之间的关系进行建模来进行背景分割。GMG 背景分割器在动态背景和光照变化下具有较好的鲁棒性。

优劣对比:

MOG2 适用于动态光照条件下的场景,但对于相对静态的背景可能效果不佳。
KNN 对于处理运动目标和部分遮挡情况可能更有效,但在复杂动态背景下表现可能欠佳。
GMG 在动态背景和光照变化下表现较好,但对于较为静态的场景可能不够精确。

示例代码(使用OpenCV库):
下面是一个简单的示例代码,演示了如何使用OpenCV库中的这三种背景分割器:

import cv2# 读取视频文件
cap = cv2.VideoCapture('input_video.mp4')# 创建背景分割器对象
mog2_bg_subtractor = cv2.createBackgroundSubtractorMOG2()
knn_bg_subtractor = cv2.createBackgroundSubtractorKNN()
gmg_bg_subtractor = cv2.bgsegm.createBackgroundSubtractorGMG()while cap.isOpened():ret, frame = cap.read()if not ret:break# 背景分割mog2_mask = mog2_bg_subtractor.apply(frame)knn_mask = knn_bg_subtractor.apply(frame)gmg_mask = gmg_bg_subtractor.apply(frame)# 显示前景对象cv2.imshow('MOG2 Foreground', mog2_mask)cv2.imshow('KNN Foreground', knn_mask)cv2.imshow('GMG Foreground', gmg_mask)if cv2.waitKey(30) & 0xFF == 27:  # 按下Esc键退出breakcap.release()
cv2.destroyAllWindows()

P.S.简单补充下高斯混合模型的知识
高斯混合模型(Gaussian Mixture Model,GMM)是一种用于对数据进行建模的概率模型。它假设数据是由多个高斯分布组合而成的,每个高斯分布对应着数据的一个聚类。GMM通常用于聚类分析和密度估计。

在GMM中,每个高斯分布都由均值和方差参数化,整个模型由多个高斯分布组成。给定数据后,可以使用期望最大化(Expectation-Maximization,EM)算法来估计GMM的参数,包括每个高斯分布的均值、方差和混合系数。

下面是一个使用Python的示例,演示如何使用scikit-learn库中的GaussianMixture类来构建和拟合一个GMM模型:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.mixture import GaussianMixture# 生成示例数据
np.random.seed(0)
n_samples = 1000
# 生成两个高斯分布的数据
X = np.concatenate([np.random.normal(0, 1, int(0.3 * n_samples)),np.random.normal(5, 1, int(0.7 * n_samples))]).reshape(-1, 1)# 构建并拟合GMM模型
gmm = GaussianMixture(n_components=2, random_state=42)
gmm.fit(X)# 绘制拟合的GMM模型
x = np.linspace(-5, 10, 1000)
x = x.reshape(-1, 1)
plt.hist(X, bins=30, density=True, alpha=0.5)
plt.plot(x, np.exp(gmm.score_samples(x)), label='GMM')
plt.xlabel('x')
plt.ylabel('Probability')
plt.legend()
plt.show()

在使用 GaussianMixture 模型时,random_state 参数用于控制初始化高斯混合模型的随机性,包括初始化聚类中心、对数似然函数等,从而控制着模型中的随机数生成过程
设置 random_state 参数的主要目的是为了在需要重复实验或结果可复现的情况下,确保每次运行模型时都能得到相同的结果。
当设置了 random_state 参数时,模型将会使用指定的随机种子来初始化,确保每次运行模型时都得到相同的随机初始化结果。这样可以使得模型的输出对于其他人来说更容易理解和复现。
参数 random_state 可以传入一个整数值,例如 random_state=42,这个整数值就是随机种子。通过设置相同的随机种子,可以确保在相同数据集上运行模型时得到一致的结果。

这篇关于【CV】视频图像背景分割MOG2,KNN,GMG的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1009188

相关文章

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

《x86汇编语言:从实模式到保护模式》视频来了

《x86汇编语言:从实模式到保护模式》视频来了 很多朋友留言,说我的专栏《x86汇编语言:从实模式到保护模式》写得很详细,还有的朋友希望我能写得更细,最好是覆盖全书的所有章节。 毕竟我不是作者,只有作者的解读才是最权威的。 当初我学习这本书的时候,只能靠自己摸索,网上搜不到什么好资源。 如果你正在学这本书或者汇编语言,那你有福气了。 本书作者李忠老师,以此书为蓝本,录制了全套视频。 试

SAM2POINT:以zero-shot且快速的方式将任何 3D 视频分割为视频

摘要 我们介绍 SAM2POINT,这是一种采用 Segment Anything Model 2 (SAM 2) 进行零样本和快速 3D 分割的初步探索。 SAM2POINT 将任何 3D 数据解释为一系列多向视频,并利用 SAM 2 进行 3D 空间分割,无需进一步训练或 2D-3D 投影。 我们的框架支持各种提示类型,包括 3D 点、框和掩模,并且可以泛化到不同的场景,例如 3D 对象、室

树莓派5_opencv笔记27:Opencv录制视频(无声音)

今日继续学习树莓派5 8G:(Raspberry Pi,简称RPi或RasPi)  本人所用树莓派5 装载的系统与版本如下:  版本可用命令 (lsb_release -a) 查询: Opencv 与 python 版本如下: 今天就水一篇文章,用树莓派摄像头,Opencv录制一段视频保存在指定目录... 文章提供测试代码讲解,整体代码贴出、测试效果图 目录 阶段一:录制一段

基于树梅派的视频监控机器人Verybot

最近这段时间做了一个基于树梅派 ( raspberry pi ) 的视频监控机器人平台 Verybot ,现在打算把这个机器人的一些图片、视频、设计思路进行公开,并且希望跟大家一起研究相关的各种问题,下面是两张机器人的照片:         图片1:                   图片2                    这个平台的基本组成是:

PC与android平板通过浏览器监控Verybot的视频

下面这个视频是PC与android平板通过浏览器监控Verybot的视频:           http://v.youku.com/v_show/id_XNjYzNzYyMTIw.html

Verybot之OpenCV应用一:安装与图像采集测试

在Verybot上安装OpenCV是很简单的,只需要执行:         sudo apt-get update         sudo apt-get install libopencv-dev         sudo apt-get install python-opencv         下面就对安装好的OpenCV进行一下测试,编写一个通过USB摄像头采

Verybot的几个视频

1、Verybot的运动控制                 http://v.youku.com/v_show/id_XNjYxNjg4MTM2.html           2、Verybot比较初步的网络视频监控           http://v.youku.com/v_show/id_XNjYxNjkyMjg0.html           3、V