本文主要是介绍C++中OpenMP的使用方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
适用场景
OpenMP是一种用于共享内存并行系统的多线程程序设计方案;简单地说,OpenMP通过一种较为简单的使用方式,实现代码的CPU并行化处理,从而最大化利用硬件的多核性能,成倍地提升处理效率;
OpenMP适用场景通常满足以下条件:
- 一个代码块被重复调用,且每次耗时较长,或者耗时较短但重复调用次数非常多;
- 被重复调用的代码块中,每次处理的数据之间,独立性较强,不存在线程安全问题,或者只有少数需要线程互斥的操作;
- 在一个算法中,被重复调用的代码块,是在一个顺序执行的逻辑中的;在引入并行处理提高效率的同时,期望算法逻辑保持简单,不希望引入过多的异步控制;
注意:以上的条件并不是绝对的,实际开发中还是需要根据算法/需求的特性,来衡量OpenMP是否能够有效地提高代码的执行效率,滥用OpenMP有时只会徒增代码的复杂性、降低运行效率;
开启方式
一般情况下,默认的C++编程环境是没有开启OpenMP支持的,需要手动开启;开启之后只需要在使用omp的地方包含头文件即可:
#include <omp.h>
VisualStudio开启方式
打开项目属性页 => 配置属性 => C/C++ => 语言 => OpenMP支持
QtCreator开启方式
在pro项目文件中加入行:
QMAKE_CXXFLAGS += /openmp
CMake开启方式
FIND_PACKAGE( OpenMP REQUIRED)
if(OPENMP_FOUND)message("OPENMP FOUND")set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} ${OpenMP_C_FLAGS}")set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} ${OpenMP_CXX_FLAGS}")set(CMAKE_EXE_LINKER_FLAGS"${CMAKE_EXE_LINKER_FLAGS}${OpenMP_EXE_LINKER_FLAGS}")
endif()
OpenMP的指令
概览
OpenMP中的指令有:
- parallel,用在一个代码段之前,表示这段代码将被多个线程并行执行;
- for,用于for循环之前,将循环分配到多个线程中并行执行,必须保证每次循环之间无相关性;
- parallel for, parallel 和 for语句的结合,也是用在一个for循环之前,表示for循环的代码将被多个线程并行执行;
- sections,用在可能会被并行执行的代码段之前;
- parallel sections,parallel和sections两个语句的结合;
- critical,用在一段代码临界区之前;
- single,用在一段只被单个线程执行的代码段之前,表示后面的代码段将被单线程执行;
- flush,用于保证各个OpenMP线程的数据影像的一致性;
- barrier,用于并行区内代码的线程同步,所有线程执行到barrier时要停止,直到所有线程都执行到barrier时才继续往下执行;
- atomic,用于指定一块内存区域被制动更新;
- master,用于指定一段代码块由主线程执行;
- ordered,用于指定并行区域的循环按顺序执行;
- threadprivate,用于指定一个变量是线程私有的;
常用案例
parallel
parallel指令用于创建并行域,可以和for、sections等配合成为复合指令:
#pragma omp parallel [for | sections] [子句]
{// 并行代码
}
// 隐式同步
parallel指令之后的代码块,即为并行运行的代码块,并行代码执行完毕后,会隐式地进行线程同步;其执行次数通常可通过omp_set_num_theads()函数或num_threads字句指定:
#pragma omp parallel num_threads(8)
{// 执行8次printf("ThreadId=%d\n", omp_get_thread_num());
}
for/parallel for
for指令需要与parallel指令配合使用,配合方式有两种;
第一种,与parallel组成复合指令(应用于单个for循环,使用简洁明了):
#pragma omp parallel for
for (int j=0; j<4; ++j)
{printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());
}
// 隐式同步
第二种,与parallel嵌套使用(可用于单个或多个for循环,使用更加灵活):
#pragma omp parallel
{#pragma omp forfor(int j=0; j<4; ++j){printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());}// 隐式同步
}
注意:for与parallel嵌套使用时,如果parallel指令中有多个for指令,会在完成第一个for指令后进行同步,然后执行第二个for指令后进行同步,如此类推,直到执行完成最后一个for指令;
另外,需要注意的是,for/parallel for指令对for循环的格式是有要求的,且在指令执行时,for循环的次数必须是固定且已知的:
std::vector<int> num_vector = { 0, 1, 3, 2, 5, 9, 4, 6 };// 正确
#pragma omp parallel for
for(int i=0; i<num_vector.size(); ++i)
{printf("i=%d, num=%d\n", i, num_vector.at(i));
}// 错误
#pragma omp parallel for
for(auto num : num_vector)
{printf("num=%d\n", num);
}// 错误
#pragma omp parallel for
for(auto iter=num_vector.begin(); iter!=num_vector.end(); ++iter)
{printf("num=%d\n", *iter);
}
cirtical/atomic
critical用于执行并行代码中的互斥操作,也即相当于加锁操作:
int max_x = -1;
int max_y = -1;
#pragma omp parallel for
for(int i=0; i<n; ++i)
{#pragma omp criticalif (arx[i] > max_x){max_x = arx[i];}#pragma omp criticalif (ary[i] > max_y){max_y = ary[i];}
}
atomic跟critical类似,但如指令名,主要用于原子操作(+、-、*、/、&、^、<<、>>):
#pragma omp parallel
{for(int i=0; i<10000; ++i){#pragma omp atomic // 原子操作++counter;}
}
barrier
barrier指令也是用于代码同步,但有别于critical、atomic等用于多线程之间的互斥操作,barrier用于所有并行线程的强制同步,可以说是设置显式同步点(相对于OpenMP的隐式同步点,作用一样)的指令:
#pragma omp parallel
{Initialization();#pragma omp barrier // 显式同步点,等待所有线程完成Initialization()后, 继续执行后续代码Process();
}
OpenMP的函数库
概览
OpenMP中常用的函数有:
- omp_get_num_procs,返回运行本线程的多处理机的处理器个数;
- omp_get_num_threads,返回当前并行区域中的活动线程个数;
- omp_get_thread_num,返回线程号;
- omp_set_num_threads,设置并行执行代码时的线程个数;
- omp_init_lock,初始化一个简单锁;
- omp_set_lock,上锁操作;
- omp_unset_lock,解锁操作,要和omp_set_lock函数配对使用;
- omp_destroy_lock,omp_init_lock函数的配对操作函数,关闭一个锁;
常用案例
omp_get_num_procs
omp_get_num_procs函数可以获取到当前机器的CPU数量(核数,或CPU的超线程数量);通常,如果算法中对于并行数量没有明确限制要求,可以通过该函数的返回值作为参考值,设置并行数量:
#pragma omp parallel for num_threads(omp_get_num_procs())
for(int i=0; i<10000; ++i)
{// 并行代码
}
omp_get_thread_num/omp_set_num_threads/omp_get_num_threads
omp_set_num_threads和omp_get_num_threads是设置和获取并行线程数量的一对接口,而omp_get_thread_num可以在并行代码之中获取当前线程号:
// 设置并行线程数量为4
omp_set_num_threads(4);#pragma omp parallel
{// 获取并打印线程ID(0/1/2/3)int tid = omp_get_thread_num();printf("Hello Word from OMP thread %d\n",tid);// 只有第一个线程执行if(tid == 0){// 获取当前的并行线程数量(此处固定为4)int nthreads = omp_get_num_threads();printf("Number of thread: %d\n",nthreads);}
}
omp_init_lock/omp_set_lock/omp_unset_lock/omp_destroy_lock
omp_init_lock与omp_destroy_lock是用于初始化锁/关闭锁的一对函数,omp_set_lock与omp_unset_lock是用于上锁/解锁的一对函数,对应的互斥锁类型为omp_lock_t:
static omp_lock_t lock;
omp_init_lock(&lock);
#pragma omp parallel for
for(int i=0; i<5; ++i)
{omp_set_lock(&lock);printf("%d +\n", omp_get_thread_num());printf("%d -\n", omp_get_thread_num());omp_unset_lock(&lock);
}
omp_destroy_lock(&lock);
OpenMP的子句
概览
OpenMP中的子句有:
- private, 指定每个线程都有它自己的变量私有副本;
- firstprivate,指定每个线程都有它自己的变量私有副本,并且变量要被继承主线程中的初值;
- lastprivate,主要是用来指定将线程中的私有变量的值在并行处理结束后复制回主线程中的对应变量;
- reduction,用来指定一个或多个变量是私有的,并且在并行处理结束后这些变量要执行指定的运算;
- nowait,忽略指定中暗含的等待;
- num_threads,指定线程的个数;
- schedule,指定如何调度for循环迭代;
- shared,指定一个或多个变量为多个线程间的共享变量;
- ordered,用来指定for循环的执行要按顺序执行;
- copyprivate,用于single指令中的指定变量为多个线程的共享变量;
- copyin,用来指定一个threadprivate的变量的值要用主线程的值进行初始化;
- default,用来指定并行处理区域内的变量的使用方式,缺省是shared;
常用案例:
private
OpenMP各个线程的变量是共享还是私有,是依据OpenMP自身的规则和相关的数据子句而定,而不是依据操作系统线程或进程上的变量特性而定;其中private(list)子句,可用来将一个或多个变量声明成线程私有的变量,变量声明成私有变量后,指定每个线程都有它自己的变量私有副本,其他线程无法访问私有副本;即使在并行域外有同名的共享变量,共享变量在并行域内不起任何作用,并且并行域内不会操作到外面的共享变量;
int k = 100;
#pragma omp parallel for private(k)
for (k=0; k<8; ++k)
{printf("k=%d\n", k); // 0-7
}
printf("last k=%d\n", k); // 100
num_threads
num_threads可以用于指定一块并行代码的线程数量:
#pragma omp parallel for num_threads(8)
for(int i=0; i<10000; ++i)
{// 并行代码
}
schedule
适用场景
假如在一个parallel并行域中有多个for制导指令,在该并行域内的多个线程首先完成第一个for语句的任务分担,然后在此进行一次同步(for制导指令本身隐含有结束处的路障同步),然后再进行第二个for语句的任务分担,直到退出并行域并只剩下一个主线程为止;对于for循环的并行计算,如果仅仅像上面这种方式进行任务分配,假如循环变量不同时计算量不同,那么这样的分配是不合理的。
对于这种情况,我们可以使用schedule子句来解决。
子句格式
schedule子句的格式是schedule(type [,size])。type的类型有static、dynamic、guided三种调度方式,此外还可以是runtime,但runtime是根据环境变量OMP_SCHEDULED来选择前三种中的某种类型,相应的内部控制变量ICV是run-sched-var。size是可选的,默认为平均分配。size参数必须是整数,表示以循环迭代次数计算的划分单位,每个线程所承担的计算任务对应于0个或若干个size次循环。需要注意的是,当type参数类型为runtime时,size参数是非法的。
type:static
当for或者parallel for编译制导指令没有带schedule子句时,大部分系统中默认采用size为1的static调度方式。假设有n次循环迭代,t个线程,那么给每个线程静态分配大约n/t次迭代计算,当然不要钻什么除不尽这样的牛角尖,线程分配到的迭代次数相差一次就行了。如果指定了size,则可能相差更大。对两个线程,以schedule(static)为例,以for循环10次为例,它们将分别得到5次;再以schedule(static,2)为例,0、1次迭代分配给0号线程,2、3次迭代分配给1号线程,4、5次迭代分配给0号线程,6、7次迭代分配给1号线程,…
type:dynamic
schedule(dynamic)是按情况每size次迭代进行分配,各线程动态地申请任务,因此较快的线程可能申请更多次数,而较慢的线程申请任务次数可能较少,因此动态调度可以在一定程度上避免前面提到的按循环次数划分引起的负载不平衡问题。默认size为1,类似于static的情况,容易想到size被指定后的情形,就不再赘述。
type:guided
这是一种采用指导性的启发式自调度方法。开始时每个线程会分配到较大的迭代块,之后分配到的迭代块会逐渐递减。迭代块的大小会按指数级下降到指定的size大小,如果没有指定size参数,那么迭代块大小最小会降到1。下面举个例子,其中第0、1、2、3、4次迭代被分配给线程0,第5、6、7次迭代被分配给线程1,第8、9次迭代被分配给线程0,分配的迭代次数呈递减趋势,最后一次递减到2次;
#pragma omp parallel for schedule(guided,2)
for (j=0; j<10; ++j)
{printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());
}
/* 可能的打印结果:
i=0, thread_id=0
i=1, thread_id=0
i=2, thread_id=0
i=3, thread_id=0
i=4, thread_id=0
i=8, thread_id=0
i=9, thread_id=0
i=5, thread_id=1
i=6, thread_id=1
i=7, thread_id=1 */
default
default(shared | none)子句,用来允许用户控制并行区域中变量的共享属性。使用shared时,缺省情况下,传入并行区域内的同名变量被当作共享变量来处理,不会产生线程私有副本,除非使用private等子句来指定某些变量为私有的才会产生副本。如果使用none作为参数,除了那些由明确定义的除外,线程中用到的变量都必须显式指定为是共享的还是私有的;
这篇关于C++中OpenMP的使用方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!