CUDA:用并行计算的方法对图像进行直方图均衡处理

2024-09-07 03:58

本文主要是介绍CUDA:用并行计算的方法对图像进行直方图均衡处理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

(一)目的

将所学算法运用于图像处理中。

(二)内容

用并行计算的方法对图像进行直方图均衡处理。

要求:

  1. 利用直方图均衡算法处理lena_salt图像

版本1:CPU实现

版本2:GPU实现 

实验步骤一 软件设计分析:

  • 数据类型:

根据实验要求,本实验的数据类型为一个256*256*8的整型矩阵,其中元素的值为256*256个0-255的灰度值。

  • 存储方式:

图像在内存中的存储方式主要是以二维矩阵的方式进行存储,这里的lena_salt图像是一个256*256的矩阵,每一个元素用一个字节来存储像素值。

矩阵在内存中的存储按照行列优先可以分为两种方式,一种是行优先的存储方式,一种是按照列优先的方式。

这两种存储方式在访问对应的位置的数据的时候有很大的差别。在cuda内部,矩阵默认是按照列优先的方式存储,如果要使用cuda device函数,就必须考虑存储方式的问题,有的时候可能需要我们队存储方式进行装换。但是无论是用那种存储方式,最终在内存中都是顺序存储的。

三.GPU程序的blockthreads的相关设置:

       本实验提供的英伟达实验平台每一个Grid可以按照一维或者二维的方式组织,每一个Block可以按照一维,二维或者三维的方式进行组织。每一个block最多只能有1536个线程。内核函数使用的线程总量也受到设备本身的限制。

对于本次实验,针对上文中提到的几个任务,block和threads的组织方式都可以描述为:

dim3 threadsPerBlock(16, 16);

  dim3 blocksPerGrid((img_in.w + 15) / 16, (img_in.h + 15) / 16);

实验步骤二 实验设备:

本地设备:PC机+Windows10操作系统

  Putty远程连接工具

  PsFTP远程文件传输工具

远程设备:NVIDIA-SMI 352.79

  Driver Version:352.79

 

实验步骤三 CPU计算代码:

void cpu_ histogram_equalization_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h){

    //数据定义

    float pixel_value[256];

    float P_pixel_value[256];

    float Sum_P_pixel_value[256];

    for (int i = 0; i < 256; i++)

        pixel_value[i] = 0;

    //统计直方图

    for (int i = 0; i<img_h; i++)

    {

        for (int j = 0; j<img_w; j++)

        {

            pixel_value[img_in[i * img_w + j]]++;

            //img_out[i*img_w+j] = pixel_out;

        }

    }

    //概率直方图

    for (int i = 0; i < 256; i++)

        P_pixel_value[i] = pixel_value[i] / 256 / 256;

    //前项概率求和

    for (int i = 0; i < 256; i++)

    {

        float sum = 0.0;

        for (int j = 0; j < i; j++)

            sum += P_pixel_value[j];

        Sum_P_pixel_value[i] = sum;

    }

    //均衡化

    for (int i = 0; i<img_h; i++)

    {

        for (int j = 0; j<img_w; j++)

        {

            int pixel_out = int(Sum_P_pixel_value[img_in[i * img_w + j]] * 256 + 0.5);

            img_out[i*img_w + j] = pixel_out;

        }

    }

}

实验步骤四 GPU计算代码:

  1. 新增数据定义及初始化部分

float *pixel_value_h = new float[256];

    float *P_pixel_value_h = new float[256];

    float *Sum_P_pixel_value_h = new float[256];

    for (int i = 0; i < 256; i++)

    {

        pixel_value_h[i] = 0.0;

        P_pixel_value_h[i] = 0.0;

        Sum_P_pixel_value_h[i] = 0.0;

    }

    float *pixel_value_d;

    float *P_pixel_value_d;

    float *Sum_P_pixel_value_d;

    cudaMalloc((void **)&pixel_value_d, 256 * sizeof(double));

    cudaMalloc((void **)&P_pixel_value_d, 256 * sizeof(float));

    cudaMalloc((void **)&Sum_P_pixel_value_d, 256 * sizeof(float));

    cudaMemcpy(pixel_value_d, pixel_value_h, 256 * sizeof(float), cudaMemcpyHostToDevice);

    cudaMemcpy(P_pixel_value_d, P_pixel_value_h, 256 * sizeof(float), cudaMemcpyHostToDevice);

    cudaMemcpy(Sum_P_pixel_value_d, Sum_P_pixel_value_h, 256 * sizeof(float), cudaMemcpyHostToDevice);

  1. 函数定义部分

//统计直方图

__global__ void gpu_histogram_sta_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h, float *pixel_value)

{

    int row = blockDim.y * blockIdx.y + threadIdx.y;

    int col = blockDim.x * blockIdx.x + threadIdx.x;

    if ((row >= 0) && (row < img_h) && (col >= 0) && (col < img_w))

        //pixel_value[img_in[row*img_w + col]]++;

        atomicAdd(&pixel_value[img_in[row*img_w + col]], 1.0);

}

//计算概率

__global__ void gpu_probability_sta_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h, float *pixel_value, float *P_pixel_value)

{

    if ((blockIdx.x == 0) && (blockIdx.y == 0) && (threadIdx.x == 0) && (threadIdx.y == 0))

        for (int i = 0; i < 256;i++)

            P_pixel_value[i] = pixel_value[i] / 256 /256;

}

//计算概率前项和

__global__ void gpu_sum_probability_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h, float *P_pixel_value, float *Sum_P_pixel_value)

{

    __shared__ float sharedM[256];

 

    int i = threadIdx.x + blockIdx.x * blockDim.x;

    unsigned int bid = blockIdx.y * gridDim.x + blockIdx.x;

    unsigned int bid = blockIdx.x;

    unsigned int tid = threadIdx.x;

    unsigned int count = 1;

    sharedM[tid] = P_pixel_value[tid];

    __syncthreads();

    if (bid % 2 == 0)

    {

        for (unsigned int stride = 1; stride < bid; stride *= 2)

        {

            __syncthreads();

            if (tid % (2*stride) == 0)

                sharedM[tid] += sharedM[tid + stride];

        }

    }  

    else

    {

        for (unsigned int stride = 1; stride < bid + 1; stride *= 2)

        {

            __syncthreads();

            if (tid % (2 * stride) == 0)

                sharedM[tid] += sharedM[tid + stride];

        }

    }

    if (tid == 0)

        Sum_P_pixel_value[blockIdx.x] = sharedM[0];

}

//均衡化

__global__ void gpu_equilibrium_kernel(uchar * img_in, uchar * img_out, int img_w, int img_h, float *Sum_P_pixel_value)

{

    int row = blockDim.y * blockIdx.y + threadIdx.y;

    int col = blockDim.x * blockIdx.x + threadIdx.x;

    img_out[row*img_w + col] = int(Sum_P_pixel_value[img_in[row*img_w + col]] * 256 + 0.5);

}

  1. 函数调用

 

gpu_histogram_sta_kernel << <blocksPerGrid, threadsPerBlock >> >(d_img_in, d_img_out, img_in.w, img_in.h, pixel_value_d);

    gpu_probability_sta_kernel << <blocksPerGrid, threadsPerBlock >> >(d_img_in, d_img_out, img_in.w, img_in.h, pixel_value_d, P_pixel_value_d);

    gpu_sum_probability_kernel << <256, 256 >> >(d_img_in, d_img_out, img_in.w, img_in.h, P_pixel_value_d, Sum_P_pixel_value_d);

    gpu_equilibrium_kernel << <blocksPerGrid, threadsPerBlock >> >(d_img_in, d_img_out, img_in.w, img_in.h, Sum_P_pixel_value_d);

 

实验步骤五 观察输出结果:

图1 原图像

 

  1. 版本1:CPU实现处理结果

 

图2 CPU实现处理效果

 

 

图3 CPU实现处理时间

 

2,版本2:GPU实现处理结果

图4 CPU实现处理效果

 

图5 CPU实现处理时间

3,处理过程中的数据

图6 直方图统计结果

图7 概率计算结果

 

图8 概率前项求和

 

 

实验结论:

 

cpu程序计算所需时间:

   版本1,CPU实现程序计算所需时间:1.6711328ms

gpu程序计算所需时间:

   版本2,GPU实现程序计算所需时间:2.950976ms

 

总结

之前的实验都是讲所有的代码写在一个kernel函数里面,本次实验突发奇想的采用多个kernel函数对直方图均衡的每一步分别进行处理,也算是一种新的尝试吧。在实验的过程中,由于远程端的运行环境导致调试代码,特别是排查错误显得很艰难。我在这里才取的解决办法就是将处理完的数据传回host端,然后打印出来,观察输出结果是否符合预期。这样就很容易发现处理的过程中是哪一步出了问题,方便了错误排查。

这篇关于CUDA:用并行计算的方法对图像进行直方图均衡处理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1143994

相关文章

Python列表去重的4种核心方法与实战指南详解

《Python列表去重的4种核心方法与实战指南详解》在Python开发中,处理列表数据时经常需要去除重复元素,本文将详细介绍4种最实用的列表去重方法,有需要的小伙伴可以根据自己的需要进行选择... 目录方法1:集合(set)去重法(最快速)方法2:顺序遍历法(保持顺序)方法3:副本删除法(原地修改)方法4:

Python中判断对象是否为空的方法

《Python中判断对象是否为空的方法》在Python开发中,判断对象是否为“空”是高频操作,但看似简单的需求却暗藏玄机,从None到空容器,从零值到自定义对象的“假值”状态,不同场景下的“空”需要精... 目录一、python中的“空”值体系二、精准判定方法对比三、常见误区解析四、进阶处理技巧五、性能优化

浅析Java中如何优雅地处理null值

《浅析Java中如何优雅地处理null值》这篇文章主要为大家详细介绍了如何结合Lambda表达式和Optional,让Java更优雅地处理null值,感兴趣的小伙伴可以跟随小编一起学习一下... 目录场景 1:不为 null 则执行场景 2:不为 null 则返回,为 null 则返回特定值或抛出异常场景

C++中初始化二维数组的几种常见方法

《C++中初始化二维数组的几种常见方法》本文详细介绍了在C++中初始化二维数组的不同方式,包括静态初始化、循环、全部为零、部分初始化、std::array和std::vector,以及std::vec... 目录1. 静态初始化2. 使用循环初始化3. 全部初始化为零4. 部分初始化5. 使用 std::a

如何将Python彻底卸载的三种方法

《如何将Python彻底卸载的三种方法》通常我们在一些软件的使用上有碰壁,第一反应就是卸载重装,所以有小伙伴就问我Python怎么卸载才能彻底卸载干净,今天这篇文章,小编就来教大家如何彻底卸载Pyth... 目录软件卸载①方法:②方法:③方法:清理相关文件夹软件卸载①方法:首先,在安装python时,下

电脑死机无反应怎么强制重启? 一文读懂方法及注意事项

《电脑死机无反应怎么强制重启?一文读懂方法及注意事项》在日常使用电脑的过程中,我们难免会遇到电脑无法正常启动的情况,本文将详细介绍几种常见的电脑强制开机方法,并探讨在强制开机后应注意的事项,以及如何... 在日常生活和工作中,我们经常会遇到电脑突然无反应的情况,这时候强制重启就成了解决问题的“救命稻草”。那

kali linux 无法登录root的问题及解决方法

《kalilinux无法登录root的问题及解决方法》:本文主要介绍kalilinux无法登录root的问题及解决方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,... 目录kali linux 无法登录root1、问题描述1.1、本地登录root1.2、ssh远程登录root2、

SpringMVC获取请求参数的方法

《SpringMVC获取请求参数的方法》:本文主要介绍SpringMVC获取请求参数的方法,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下... 目录1、通过ServletAPI获取2、通过控制器方法的形参获取请求参数3、@RequestParam4、@

深入理解Apache Kafka(分布式流处理平台)

《深入理解ApacheKafka(分布式流处理平台)》ApacheKafka作为现代分布式系统中的核心中间件,为构建高吞吐量、低延迟的数据管道提供了强大支持,本文将深入探讨Kafka的核心概念、架构... 目录引言一、Apache Kafka概述1.1 什么是Kafka?1.2 Kafka的核心概念二、Ka

Python中的魔术方法__new__详解

《Python中的魔术方法__new__详解》:本文主要介绍Python中的魔术方法__new__的使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、核心意义与机制1.1 构造过程原理1.2 与 __init__ 对比二、核心功能解析2.1 核心能力2.2