【开盖即食】多种算法实现画面动静判断(附源码)

2024-08-22 03:12

本文主要是介绍【开盖即食】多种算法实现画面动静判断(附源码),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言

大家好,我是cv君,今天想跟大家分享一下,如何实现画面动静判断、判断画面或者物体是否在运动或者是比较静止,简单使用计算机视觉传统方法实现,AI的后续带给大家。我们提供三种方案:

1、背景消除法;

2、光流追踪法;

3、相似度、清晰度变化法;

代码开盖即食,拿来可用,请品尝~

然后我们可以把视频中运动的部分保留,静止的部分扣除;

1、背景消除法;

import cv2
import numpy as np# 配置视频文件路径和输出文件路径
video_path = r"demo3.mp4"
output_video_path = r"demo3.avi"# 打开视频文件
cap = cv2.VideoCapture(video_path)
if not cap.isOpened():print("无法打开视频文件")exit()# 获取视频基本信息
fps = cap.get(cv2.CAP_PROP_FPS)  # 帧率
frame_width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
frame_height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))# 创建背景减除器
bg_subtractor = cv2.createBackgroundSubtractorMOG2(varThreshold=30)
# fgbg = cv2.createBackgroundSubtractorMOG2(varThreshold=30, detectShadows=True)  # 设置输出视频编解码器
fourcc = cv2.VideoWriter_fourcc(*'MJPG')
out = cv2.VideoWriter(output_video_path, fourcc, fps, (frame_width, frame_height))# 处理每一秒的帧
frame_count = 0
seconds_counter = 0
frame_buffer = []while True:ret, frame = cap.read()if not ret:breakframe_count += 1second = int(frame_count // fps)  # 当前秒钟# 应用背景减除器fg_mask = bg_subtractor.apply(frame)# 计算前景区域的像素数量non_zero_count = cv2.countNonZero(fg_mask)# 保存当前帧到缓冲区frame_buffer.append(frame)# 每秒钟结束时判断运动情况if frame_count % 10 == 0:# print(non_zero_count)if non_zero_count > 15000:  # 根据实际情况调整阈值print(f"第 {second} 秒有运动")for f in frame_buffer:out.write(f)  # 将帧写入输出视频else:print(f"第 {second} 秒静止")frame_buffer.clear()  # 清空缓冲区准备处理下一秒的帧# 释放资源
cap.release()
out.release()
cv2.destroyAllWindows()

2、光流追踪法;

import cv2
import numpy as np# 配置视频文件路径和输出文件路径
video_path = r"zjkzlzxjg-1511.ts"
output_video_path = r"demo3.avi"# 打开视频文件
cap = cv2.VideoCapture(video_path)
if not cap.isOpened():print("无法打开视频文件")exit()# 获取视频基本信息
fps = cap.get(cv2.CAP_PROP_FPS)  # 帧率
frame_width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
frame_height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))# 设置输出视频编解码器
fourcc = cv2.VideoWriter_fourcc(*'MJPG')
out = cv2.VideoWriter(output_video_path, fourcc, fps, (frame_width, frame_height))# 读取第一帧
ret, prev_frame = cap.read()
if not ret:print("无法读取视频帧")exit()prev_gray = cv2.cvtColor(prev_frame, cv2.COLOR_BGR2GRAY)# 提取关键点
prev_pts = cv2.goodFeaturesToTrack(prev_gray, maxCorners=1000, qualityLevel=0.3, minDistance=7, blockSize=7)if prev_pts is None:print("无法提取关键点")cap.release()out.release()cv2.destroyAllWindows()exit()
if prev_pts is not None:prev_pts = np.float32(prev_pts).reshape(-1, 1, 2)
# prev_pts = np.int0(prev_pts)frame_buffer = []
frame_count = 0while True:ret, frame = cap.read()if not ret:breakframe_count += 1second = int(frame_count // fps)  # 当前秒钟gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)# 计算光流next_pts, status, err = cv2.calcOpticalFlowPyrLK(prev_gray, gray, prev_pts, None)if next_pts is not None and status is not None:good_prev_pts = prev_pts[status == 1]good_next_pts = next_pts[status == 1]# 计算光流的总变化量displacement = np.linalg.norm(good_next_pts - good_prev_pts, axis=1)non_zero_count = np.sum(displacement > 0.0)  # 根据实际情况调整阈值# 保存当前帧到缓冲区frame_buffer.append(frame)# 每秒钟结束时判断运动情况if frame_count % 15 == 0:if non_zero_count > 0:  # 根据实际情况调整阈值print(f"第 {second} 秒有运动")for f in frame_buffer:out.write(f)  # 将帧写入输出视频else:print(f"第 {second} 秒静止")frame_buffer.clear()  # 清空缓冲区准备处理下一秒的帧prev_gray = grayprev_pts = good_next_pts.reshape(-1, 1, 2)else:print("光流计算失败")# 释放资源
cap.release()
out.release()
cv2.destroyAllWindows()

3、相似度、清晰度变化法;

import cv2
import numpy as np# 配置视频文件路径和输出文件路径
video_path = r"C:\Users\sunhongzhe\Pictures\expandai_move\a.mp4"
output_video_path = r"C:\Users\sunhongzhe\Pictures\expandai_move\a.avi"# 打开视频文件
cap = cv2.VideoCapture(video_path)
if not cap.isOpened():print("无法打开视频文件")exit()# 获取视频基本信息
fps = cap.get(cv2.CAP_PROP_FPS)  # 帧率
frame_width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
frame_height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))# 设置输出视频编解码器
fourcc = cv2.VideoWriter_fourcc(*'MJPG')
out = cv2.VideoWriter(output_video_path, fourcc, fps, (frame_width, frame_height))# 读取第一帧
ret, prev_frame = cap.read()
if not ret:print("无法读取视频帧")exit()prev_gray = cv2.cvtColor(prev_frame, cv2.COLOR_BGR2GRAY)
prev_edges = cv2.Canny(prev_gray, 50, 150)frame_buffer = []
frame_count = 0# 运动检测阈值
motion_threshold = 3000  # 根据实际情况调整while True:ret, frame = cap.read()if not ret:breakframe_count += 1second = int(frame_count // fps)  # 当前秒钟gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)edges = cv2.Canny(gray, 50, 150)# 计算边缘图像的差异diff = cv2.absdiff(prev_edges, edges)non_zero_count = np.sum(diff > 0)# 保存当前帧到缓冲区frame_buffer.append(frame)# 每秒钟结束时判断运动情况if frame_count % 10 == 0:  # 每秒处理一次if non_zero_count > motion_threshold:  # 根据差异判断是否运动print(non_zero_count)print(f"第 {second} 秒有运动")for f in frame_buffer:out.write(f)  # 将帧写入输出视频else:print(f"第 {second} 秒静止")frame_buffer.clear()  # 清空缓冲区准备处理下一秒的帧prev_edges = edges# 释放资源
cap.release()
out.release()
cv2.destroyAllWindows()

开盖即食,大家随便放个运动、静止结合的视频进来,调整一下阈值即可实现动静分离;保留运动的视频,剔除静止的画面

第三个方法,剩下的大家可以用phash等相似度方法同理替换,请查阅我的另一篇文章:
【含泪提速!】一文全解相似度算法、跟踪算法在各个AI场景的应用(附代码)_image.antialias-CSDN博客

三个py的就按测阈值,大家都可以改哦,还有多久判断一次,都可以;

这是实现视频中动静画面区分的;

想要实现一个视频中,哪些画面在东,哪些画面在静止,就可以将画面分成多个区域,分别运算这些个算法,都可以得到哪些地方在动,哪些地方在静止了。

演示效果:原本视频没法上传,原视频15秒,静止部分有5秒,最后处理完后,成功剔除了静止部分的帧,保留下了运动的10秒

最后

最近cv君重新常更,欢迎三连~欢迎大家进入cv君的AI 与计算机视觉世界:DeepAI 视界 里面有几千位AI的朋友,有任何问题都可以交流哦,联系微信zxx15277368495z

这篇关于【开盖即食】多种算法实现画面动静判断(附源码)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1095079

相关文章

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象