C++中OpenMP的使用方法

2024-03-07 02:20
文章标签 c++ 使用 方法 openmp

本文主要是介绍C++中OpenMP的使用方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

适用场景

OpenMP是一种用于共享内存并行系统的多线程程序设计方案;简单地说,OpenMP通过一种较为简单的使用方式,实现代码的CPU并行化处理,从而最大化利用硬件的多核性能,成倍地提升处理效率;
OpenMP适用场景通常满足以下条件:

  1. 一个代码块被重复调用,且每次耗时较长,或者耗时较短但重复调用次数非常多;
  2. 被重复调用的代码块中,每次处理的数据之间,独立性较强,不存在线程安全问题,或者只有少数需要线程互斥的操作;
  3. 在一个算法中,被重复调用的代码块,是在一个顺序执行的逻辑中的;在引入并行处理提高效率的同时,期望算法逻辑保持简单,不希望引入过多的异步控制;

注意:以上的条件并不是绝对的,实际开发中还是需要根据算法/需求的特性,来衡量OpenMP是否能够有效地提高代码的执行效率,滥用OpenMP有时只会徒增代码的复杂性、降低运行效率;

开启方式

一般情况下,默认的C++编程环境是没有开启OpenMP支持的,需要手动开启;开启之后只需要在使用omp的地方包含头文件即可:

#include <omp.h>

VisualStudio开启方式

打开项目属性页 => 配置属性 => C/C++ => 语言 => OpenMP支持
image.png

QtCreator开启方式

在pro项目文件中加入行:

 QMAKE_CXXFLAGS += /openmp

CMake开启方式

FIND_PACKAGE( OpenMP REQUIRED)
if(OPENMP_FOUND)message("OPENMP FOUND")set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} ${OpenMP_C_FLAGS}")set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} ${OpenMP_CXX_FLAGS}")set(CMAKE_EXE_LINKER_FLAGS"${CMAKE_EXE_LINKER_FLAGS}${OpenMP_EXE_LINKER_FLAGS}")
endif()

OpenMP的指令

概览

OpenMP中的指令有:

  • parallel,用在一个代码段之前,表示这段代码将被多个线程并行执行;
  • for,用于for循环之前,将循环分配到多个线程中并行执行,必须保证每次循环之间无相关性;
  • parallel for, parallel 和 for语句的结合,也是用在一个for循环之前,表示for循环的代码将被多个线程并行执行;
  • sections,用在可能会被并行执行的代码段之前;
  • parallel sections,parallel和sections两个语句的结合;
  • critical,用在一段代码临界区之前;
  • single,用在一段只被单个线程执行的代码段之前,表示后面的代码段将被单线程执行;
  • flush,用于保证各个OpenMP线程的数据影像的一致性;
  • barrier,用于并行区内代码的线程同步,所有线程执行到barrier时要停止,直到所有线程都执行到barrier时才继续往下执行;
  • atomic,用于指定一块内存区域被制动更新;
  • master,用于指定一段代码块由主线程执行;
  • ordered,用于指定并行区域的循环按顺序执行;
  • threadprivate,用于指定一个变量是线程私有的;

常用案例

parallel

parallel指令用于创建并行域,可以和forsections等配合成为复合指令:

#pragma omp parallel [for | sections] [子句]
{// 并行代码
}
// 隐式同步

parallel指令之后的代码块,即为并行运行的代码块,并行代码执行完毕后,会隐式地进行线程同步;其执行次数通常可通过omp_set_num_theads()函数或num_threads字句指定:

#pragma omp parallel num_threads(8)
{// 执行8次printf("ThreadId=%d\n", omp_get_thread_num());
}

for/parallel for

for指令需要与parallel指令配合使用,配合方式有两种;
第一种,与parallel组成复合指令(应用于单个for循环,使用简洁明了):

#pragma omp parallel for
for (int j=0; j<4; ++j) 
{printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());
}
// 隐式同步

第二种,与parallel嵌套使用(可用于单个或多个for循环,使用更加灵活):

#pragma omp parallel
{#pragma omp forfor(int j=0; j<4; ++j){printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());}// 隐式同步
}

注意:for与parallel嵌套使用时,如果parallel指令中有多个for指令,会在完成第一个for指令后进行同步,然后执行第二个for指令后进行同步,如此类推,直到执行完成最后一个for指令;

另外,需要注意的是,for/parallel for指令对for循环的格式是有要求的,且在指令执行时,for循环的次数必须是固定且已知的:

std::vector<int> num_vector = { 0, 1, 3, 2, 5, 9, 4, 6 };// 正确
#pragma omp parallel for
for(int i=0; i<num_vector.size(); ++i) 
{printf("i=%d, num=%d\n", i, num_vector.at(i));
}// 错误
#pragma omp parallel for
for(auto num : num_vector)
{printf("num=%d\n", num);
}// 错误
#pragma omp parallel for
for(auto iter=num_vector.begin(); iter!=num_vector.end(); ++iter)
{printf("num=%d\n", *iter);
}

cirtical/atomic

critical用于执行并行代码中的互斥操作,也即相当于加锁操作:

int max_x = -1;
int max_y = -1;
#pragma omp parallel for
for(int i=0; i<n; ++i)
{#pragma omp criticalif (arx[i] > max_x){max_x = arx[i];}#pragma omp criticalif (ary[i] > max_y){max_y = ary[i];}
}

atomic跟critical类似,但如指令名,主要用于原子操作(+、-、*、/、&、^、<<、>>):

#pragma omp parallel
{for(int i=0; i<10000; ++i){#pragma omp atomic // 原子操作++counter;}
}

barrier

barrier指令也是用于代码同步,但有别于critical、atomic等用于多线程之间的互斥操作,barrier用于所有并行线程的强制同步,可以说是设置显式同步点(相对于OpenMP的隐式同步点,作用一样)的指令:

#pragma omp parallel
{Initialization();#pragma omp barrier // 显式同步点,等待所有线程完成Initialization()后, 继续执行后续代码Process();
}

OpenMP的函数库

概览

OpenMP中常用的函数有:

  • omp_get_num_procs,返回运行本线程的多处理机的处理器个数;
  • omp_get_num_threads,返回当前并行区域中的活动线程个数;
  • omp_get_thread_num,返回线程号;
  • omp_set_num_threads,设置并行执行代码时的线程个数;
  • omp_init_lock,初始化一个简单锁;
  • omp_set_lock,上锁操作;
  • omp_unset_lock,解锁操作,要和omp_set_lock函数配对使用;
  • omp_destroy_lockomp_init_lock函数的配对操作函数,关闭一个锁;

常用案例

omp_get_num_procs

omp_get_num_procs函数可以获取到当前机器的CPU数量(核数,或CPU的超线程数量);通常,如果算法中对于并行数量没有明确限制要求,可以通过该函数的返回值作为参考值,设置并行数量:

#pragma omp parallel for num_threads(omp_get_num_procs())
for(int i=0; i<10000; ++i)
{// 并行代码
}

omp_get_thread_num/omp_set_num_threads/omp_get_num_threads

omp_set_num_threads和omp_get_num_threads是设置和获取并行线程数量的一对接口,而omp_get_thread_num可以在并行代码之中获取当前线程号:

// 设置并行线程数量为4
omp_set_num_threads(4);#pragma omp parallel
{// 获取并打印线程ID(0/1/2/3)int tid = omp_get_thread_num();printf("Hello Word from OMP thread %d\n",tid);// 只有第一个线程执行if(tid == 0){// 获取当前的并行线程数量(此处固定为4)int nthreads = omp_get_num_threads();printf("Number of thread: %d\n",nthreads);}
}

omp_init_lock/omp_set_lock/omp_unset_lock/omp_destroy_lock

omp_init_lock与omp_destroy_lock是用于初始化锁/关闭锁的一对函数,omp_set_lock与omp_unset_lock是用于上锁/解锁的一对函数,对应的互斥锁类型为omp_lock_t

static omp_lock_t lock;
omp_init_lock(&lock);
#pragma omp parallel for
for(int i=0; i<5; ++i)
{omp_set_lock(&lock);printf("%d +\n", omp_get_thread_num());printf("%d -\n", omp_get_thread_num());omp_unset_lock(&lock);
}
omp_destroy_lock(&lock);

OpenMP的子句

概览

OpenMP中的子句有:

  • private, 指定每个线程都有它自己的变量私有副本;
  • firstprivate,指定每个线程都有它自己的变量私有副本,并且变量要被继承主线程中的初值;
  • lastprivate,主要是用来指定将线程中的私有变量的值在并行处理结束后复制回主线程中的对应变量;
  • reduction,用来指定一个或多个变量是私有的,并且在并行处理结束后这些变量要执行指定的运算;
  • nowait,忽略指定中暗含的等待;
  • num_threads,指定线程的个数;
  • schedule,指定如何调度for循环迭代;
  • shared,指定一个或多个变量为多个线程间的共享变量;
  • ordered,用来指定for循环的执行要按顺序执行;
  • copyprivate,用于single指令中的指定变量为多个线程的共享变量;
  • copyin,用来指定一个threadprivate的变量的值要用主线程的值进行初始化;
  • default,用来指定并行处理区域内的变量的使用方式,缺省是shared

常用案例:

private

OpenMP各个线程的变量是共享还是私有,是依据OpenMP自身的规则和相关的数据子句而定,而不是依据操作系统线程或进程上的变量特性而定;其中private(list)子句,可用来将一个或多个变量声明成线程私有的变量,变量声明成私有变量后,指定每个线程都有它自己的变量私有副本,其他线程无法访问私有副本;即使在并行域外有同名的共享变量,共享变量在并行域内不起任何作用,并且并行域内不会操作到外面的共享变量;

int k = 100;
#pragma omp parallel for private(k)
for (k=0; k<8; ++k)
{printf("k=%d\n", k);  // 0-7
}
printf("last k=%d\n", k); // 100

num_threads

num_threads可以用于指定一块并行代码的线程数量:

#pragma omp parallel for num_threads(8)
for(int i=0; i<10000; ++i)
{// 并行代码
}

schedule

适用场景

假如在一个parallel并行域中有多个for制导指令,在该并行域内的多个线程首先完成第一个for语句的任务分担,然后在此进行一次同步(for制导指令本身隐含有结束处的路障同步),然后再进行第二个for语句的任务分担,直到退出并行域并只剩下一个主线程为止;对于for循环的并行计算,如果仅仅像上面这种方式进行任务分配,假如循环变量不同时计算量不同,那么这样的分配是不合理的。
对于这种情况,我们可以使用schedule子句来解决。

子句格式

schedule子句的格式是schedule(type [,size])。type的类型有static、dynamic、guided三种调度方式,此外还可以是runtime,但runtime是根据环境变量OMP_SCHEDULED来选择前三种中的某种类型,相应的内部控制变量ICV是run-sched-var。size是可选的,默认为平均分配。size参数必须是整数,表示以循环迭代次数计算的划分单位,每个线程所承担的计算任务对应于0个或若干个size次循环。需要注意的是,当type参数类型为runtime时,size参数是非法的。

type:static

当for或者parallel for编译制导指令没有带schedule子句时,大部分系统中默认采用size为1的static调度方式。假设有n次循环迭代,t个线程,那么给每个线程静态分配大约n/t次迭代计算,当然不要钻什么除不尽这样的牛角尖,线程分配到的迭代次数相差一次就行了。如果指定了size,则可能相差更大。对两个线程,以schedule(static)为例,以for循环10次为例,它们将分别得到5次;再以schedule(static,2)为例,0、1次迭代分配给0号线程,2、3次迭代分配给1号线程,4、5次迭代分配给0号线程,6、7次迭代分配给1号线程,…

type:dynamic

schedule(dynamic)是按情况每size次迭代进行分配,各线程动态地申请任务,因此较快的线程可能申请更多次数,而较慢的线程申请任务次数可能较少,因此动态调度可以在一定程度上避免前面提到的按循环次数划分引起的负载不平衡问题。默认size为1,类似于static的情况,容易想到size被指定后的情形,就不再赘述。

type:guided

这是一种采用指导性的启发式自调度方法。开始时每个线程会分配到较大的迭代块,之后分配到的迭代块会逐渐递减。迭代块的大小会按指数级下降到指定的size大小,如果没有指定size参数,那么迭代块大小最小会降到1。下面举个例子,其中第0、1、2、3、4次迭代被分配给线程0,第5、6、7次迭代被分配给线程1,第8、9次迭代被分配给线程0,分配的迭代次数呈递减趋势,最后一次递减到2次;

#pragma omp parallel for schedule(guided,2)
for (j=0; j<10; ++j) 
{printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());
}
/* 可能的打印结果:
i=0, thread_id=0
i=1, thread_id=0
i=2, thread_id=0
i=3, thread_id=0
i=4, thread_id=0 
i=8, thread_id=0
i=9, thread_id=0
i=5, thread_id=1
i=6, thread_id=1
i=7, thread_id=1 */

default

default(shared | none)子句,用来允许用户控制并行区域中变量的共享属性。使用shared时,缺省情况下,传入并行区域内的同名变量被当作共享变量来处理,不会产生线程私有副本,除非使用private等子句来指定某些变量为私有的才会产生副本。如果使用none作为参数,除了那些由明确定义的除外,线程中用到的变量都必须显式指定为是共享的还是私有的;

这篇关于C++中OpenMP的使用方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/782131

相关文章

Nginx设置连接超时并进行测试的方法步骤

《Nginx设置连接超时并进行测试的方法步骤》在高并发场景下,如果客户端与服务器的连接长时间未响应,会占用大量的系统资源,影响其他正常请求的处理效率,为了解决这个问题,可以通过设置Nginx的连接... 目录设置连接超时目的操作步骤测试连接超时测试方法:总结:设置连接超时目的设置客户端与服务器之间的连接

Java中String字符串使用避坑指南

《Java中String字符串使用避坑指南》Java中的String字符串是我们日常编程中用得最多的类之一,看似简单的String使用,却隐藏着不少“坑”,如果不注意,可能会导致性能问题、意外的错误容... 目录8个避坑点如下:1. 字符串的不可变性:每次修改都创建新对象2. 使用 == 比较字符串,陷阱满

Java判断多个时间段是否重合的方法小结

《Java判断多个时间段是否重合的方法小结》这篇文章主要为大家详细介绍了Java中判断多个时间段是否重合的方法,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录判断多个时间段是否有间隔判断时间段集合是否与某时间段重合判断多个时间段是否有间隔实体类内容public class D

Python使用国内镜像加速pip安装的方法讲解

《Python使用国内镜像加速pip安装的方法讲解》在Python开发中,pip是一个非常重要的工具,用于安装和管理Python的第三方库,然而,在国内使用pip安装依赖时,往往会因为网络问题而导致速... 目录一、pip 工具简介1. 什么是 pip?2. 什么是 -i 参数?二、国内镜像源的选择三、如何

使用C++实现链表元素的反转

《使用C++实现链表元素的反转》反转链表是链表操作中一个经典的问题,也是面试中常见的考题,本文将从思路到实现一步步地讲解如何实现链表的反转,帮助初学者理解这一操作,我们将使用C++代码演示具体实现,同... 目录问题定义思路分析代码实现带头节点的链表代码讲解其他实现方式时间和空间复杂度分析总结问题定义给定

IDEA编译报错“java: 常量字符串过长”的原因及解决方法

《IDEA编译报错“java:常量字符串过长”的原因及解决方法》今天在开发过程中,由于尝试将一个文件的Base64字符串设置为常量,结果导致IDEA编译的时候出现了如下报错java:常量字符串过长,... 目录一、问题描述二、问题原因2.1 理论角度2.2 源码角度三、解决方案解决方案①:StringBui

Linux使用nload监控网络流量的方法

《Linux使用nload监控网络流量的方法》Linux中的nload命令是一个用于实时监控网络流量的工具,它提供了传入和传出流量的可视化表示,帮助用户一目了然地了解网络活动,本文给大家介绍了Linu... 目录简介安装示例用法基础用法指定网络接口限制显示特定流量类型指定刷新率设置流量速率的显示单位监控多个

Java覆盖第三方jar包中的某一个类的实现方法

《Java覆盖第三方jar包中的某一个类的实现方法》在我们日常的开发中,经常需要使用第三方的jar包,有时候我们会发现第三方的jar包中的某一个类有问题,或者我们需要定制化修改其中的逻辑,那么应该如何... 目录一、需求描述二、示例描述三、操作步骤四、验证结果五、实现原理一、需求描述需求描述如下:需要在

JavaScript中的reduce方法执行过程、使用场景及进阶用法

《JavaScript中的reduce方法执行过程、使用场景及进阶用法》:本文主要介绍JavaScript中的reduce方法执行过程、使用场景及进阶用法的相关资料,reduce是JavaScri... 目录1. 什么是reduce2. reduce语法2.1 语法2.2 参数说明3. reduce执行过程

C#中读取XML文件的四种常用方法

《C#中读取XML文件的四种常用方法》Xml是Internet环境中跨平台的,依赖于内容的技术,是当前处理结构化文档信息的有力工具,下面我们就来看看C#中读取XML文件的方法都有哪些吧... 目录XML简介格式C#读取XML文件方法使用XmlDocument使用XmlTextReader/XmlTextWr