CUDA:用并行计算的方法对图像进行直方图均衡处理

2024-09-07 03:58

本文主要是介绍CUDA:用并行计算的方法对图像进行直方图均衡处理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

(一)目的

将所学算法运用于图像处理中。

(二)内容

用并行计算的方法对图像进行直方图均衡处理。

要求:

  1. 利用直方图均衡算法处理lena_salt图像

版本1:CPU实现

版本2:GPU实现 

实验步骤一 软件设计分析:

  • 数据类型:

根据实验要求,本实验的数据类型为一个256*256*8的整型矩阵,其中元素的值为256*256个0-255的灰度值。

  • 存储方式:

图像在内存中的存储方式主要是以二维矩阵的方式进行存储,这里的lena_salt图像是一个256*256的矩阵,每一个元素用一个字节来存储像素值。

矩阵在内存中的存储按照行列优先可以分为两种方式,一种是行优先的存储方式,一种是按照列优先的方式。

这两种存储方式在访问对应的位置的数据的时候有很大的差别。在cuda内部,矩阵默认是按照列优先的方式存储,如果要使用cuda device函数,就必须考虑存储方式的问题,有的时候可能需要我们队存储方式进行装换。但是无论是用那种存储方式,最终在内存中都是顺序存储的。

三.GPU程序的blockthreads的相关设置:

       本实验提供的英伟达实验平台每一个Grid可以按照一维或者二维的方式组织,每一个Block可以按照一维,二维或者三维的方式进行组织。每一个block最多只能有1536个线程。内核函数使用的线程总量也受到设备本身的限制。

对于本次实验,针对上文中提到的几个任务,block和threads的组织方式都可以描述为:

dim3 threadsPerBlock(16, 16);

  dim3 blocksPerGrid((img_in.w + 15) / 16, (img_in.h + 15) / 16);

实验步骤二 实验设备:

本地设备:PC机+Windows10操作系统

  Putty远程连接工具

  PsFTP远程文件传输工具

远程设备:NVIDIA-SMI 352.79

  Driver Version:352.79

 

实验步骤三 CPU计算代码:

void cpu_ histogram_equalization_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h){

    //数据定义

    float pixel_value[256];

    float P_pixel_value[256];

    float Sum_P_pixel_value[256];

    for (int i = 0; i < 256; i++)

        pixel_value[i] = 0;

    //统计直方图

    for (int i = 0; i<img_h; i++)

    {

        for (int j = 0; j<img_w; j++)

        {

            pixel_value[img_in[i * img_w + j]]++;

            //img_out[i*img_w+j] = pixel_out;

        }

    }

    //概率直方图

    for (int i = 0; i < 256; i++)

        P_pixel_value[i] = pixel_value[i] / 256 / 256;

    //前项概率求和

    for (int i = 0; i < 256; i++)

    {

        float sum = 0.0;

        for (int j = 0; j < i; j++)

            sum += P_pixel_value[j];

        Sum_P_pixel_value[i] = sum;

    }

    //均衡化

    for (int i = 0; i<img_h; i++)

    {

        for (int j = 0; j<img_w; j++)

        {

            int pixel_out = int(Sum_P_pixel_value[img_in[i * img_w + j]] * 256 + 0.5);

            img_out[i*img_w + j] = pixel_out;

        }

    }

}

实验步骤四 GPU计算代码:

  1. 新增数据定义及初始化部分

float *pixel_value_h = new float[256];

    float *P_pixel_value_h = new float[256];

    float *Sum_P_pixel_value_h = new float[256];

    for (int i = 0; i < 256; i++)

    {

        pixel_value_h[i] = 0.0;

        P_pixel_value_h[i] = 0.0;

        Sum_P_pixel_value_h[i] = 0.0;

    }

    float *pixel_value_d;

    float *P_pixel_value_d;

    float *Sum_P_pixel_value_d;

    cudaMalloc((void **)&pixel_value_d, 256 * sizeof(double));

    cudaMalloc((void **)&P_pixel_value_d, 256 * sizeof(float));

    cudaMalloc((void **)&Sum_P_pixel_value_d, 256 * sizeof(float));

    cudaMemcpy(pixel_value_d, pixel_value_h, 256 * sizeof(float), cudaMemcpyHostToDevice);

    cudaMemcpy(P_pixel_value_d, P_pixel_value_h, 256 * sizeof(float), cudaMemcpyHostToDevice);

    cudaMemcpy(Sum_P_pixel_value_d, Sum_P_pixel_value_h, 256 * sizeof(float), cudaMemcpyHostToDevice);

  1. 函数定义部分

//统计直方图

__global__ void gpu_histogram_sta_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h, float *pixel_value)

{

    int row = blockDim.y * blockIdx.y + threadIdx.y;

    int col = blockDim.x * blockIdx.x + threadIdx.x;

    if ((row >= 0) && (row < img_h) && (col >= 0) && (col < img_w))

        //pixel_value[img_in[row*img_w + col]]++;

        atomicAdd(&pixel_value[img_in[row*img_w + col]], 1.0);

}

//计算概率

__global__ void gpu_probability_sta_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h, float *pixel_value, float *P_pixel_value)

{

    if ((blockIdx.x == 0) && (blockIdx.y == 0) && (threadIdx.x == 0) && (threadIdx.y == 0))

        for (int i = 0; i < 256;i++)

            P_pixel_value[i] = pixel_value[i] / 256 /256;

}

//计算概率前项和

__global__ void gpu_sum_probability_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h, float *P_pixel_value, float *Sum_P_pixel_value)

{

    __shared__ float sharedM[256];

 

    int i = threadIdx.x + blockIdx.x * blockDim.x;

    unsigned int bid = blockIdx.y * gridDim.x + blockIdx.x;

    unsigned int bid = blockIdx.x;

    unsigned int tid = threadIdx.x;

    unsigned int count = 1;

    sharedM[tid] = P_pixel_value[tid];

    __syncthreads();

    if (bid % 2 == 0)

    {

        for (unsigned int stride = 1; stride < bid; stride *= 2)

        {

            __syncthreads();

            if (tid % (2*stride) == 0)

                sharedM[tid] += sharedM[tid + stride];

        }

    }  

    else

    {

        for (unsigned int stride = 1; stride < bid + 1; stride *= 2)

        {

            __syncthreads();

            if (tid % (2 * stride) == 0)

                sharedM[tid] += sharedM[tid + stride];

        }

    }

    if (tid == 0)

        Sum_P_pixel_value[blockIdx.x] = sharedM[0];

}

//均衡化

__global__ void gpu_equilibrium_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h, float *Sum_P_pixel_value)

{

    int row = blockDim.y * blockIdx.y + threadIdx.y;

    int col = blockDim.x * blockIdx.x + threadIdx.x;

    img_out[row*img_w + col] = int(Sum_P_pixel_value[img_in[row*img_w + col]] * 256 + 0.5);

}

  1. 函数调用

 

gpu_histogram_sta_kernel << <blocksPerGrid, threadsPerBlock >> >(d_img_in, d_img_out, img_in.w, img_in.h, pixel_value_d);

    gpu_probability_sta_kernel << <blocksPerGrid, threadsPerBlock >> >(d_img_in, d_img_out, img_in.w, img_in.h, pixel_value_d, P_pixel_value_d);

    gpu_sum_probability_kernel << <256, 256 >> >(d_img_in, d_img_out, img_in.w, img_in.h, P_pixel_value_d, Sum_P_pixel_value_d);

    gpu_equilibrium_kernel << <blocksPerGrid, threadsPerBlock >> >(d_img_in, d_img_out, img_in.w, img_in.h, Sum_P_pixel_value_d);

 

实验步骤五 观察输出结果:

图1 原图像

 

  1. 版本1:CPU实现处理结果

 

图2 CPU实现处理效果

 

 

图3 CPU实现处理时间

 

2,版本2:GPU实现处理结果

图4 CPU实现处理效果

 

图5 CPU实现处理时间

3,处理过程中的数据

图6 直方图统计结果

图7 概率计算结果

 

图8 概率前项求和

 

 

实验结论:

 

cpu程序计算所需时间:

   版本1,CPU实现程序计算所需时间:1.6711328ms

gpu程序计算所需时间:

   版本2,GPU实现程序计算所需时间:2.950976ms

 

总结

之前的实验都是讲所有的代码写在一个kernel函数里面,本次实验突发奇想的采用多个kernel函数对直方图均衡的每一步分别进行处理,也算是一种新的尝试吧。在实验的过程中,由于远程端的运行环境导致调试代码,特别是排查错误显得很艰难。我在这里才取的解决办法就是将处理完的数据传回host端,然后打印出来,观察输出结果是否符合预期。这样就很容易发现处理的过程中是哪一步出了问题,方便了错误排查。

这篇关于CUDA:用并行计算的方法对图像进行直方图均衡处理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1143994

相关文章

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

无人叉车3d激光slam多房间建图定位异常处理方案-墙体画线地图切分方案

墙体画线地图切分方案 针对问题:墙体两侧特征混淆误匹配,导致建图和定位偏差,表现为过门跳变、外月台走歪等 ·解决思路:预期的根治方案IGICP需要较长时间完成上线,先使用切分地图的工程化方案,即墙体两侧切分为不同地图,在某一侧只使用该侧地图进行定位 方案思路 切分原理:切分地图基于关键帧位置,而非点云。 理论基础:光照是直线的,一帧点云必定只能照射到墙的一侧,无法同时照到两侧实践考虑:关

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

业务中14个需要进行A/B测试的时刻[信息图]

在本指南中,我们将全面了解有关 A/B测试 的所有内容。 我们将介绍不同类型的A/B测试,如何有效地规划和启动测试,如何评估测试是否成功,您应该关注哪些指标,多年来我们发现的常见错误等等。 什么是A/B测试? A/B测试(有时称为“分割测试”)是一种实验类型,其中您创建两种或多种内容变体——如登录页面、电子邮件或广告——并将它们显示给不同的受众群体,以查看哪一种效果最好。 本质上,A/B测

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言