C++中OpenMP的使用方法

2024-03-07 02:20
文章标签 c++ 使用 方法 openmp

本文主要是介绍C++中OpenMP的使用方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

适用场景

OpenMP是一种用于共享内存并行系统的多线程程序设计方案;简单地说,OpenMP通过一种较为简单的使用方式,实现代码的CPU并行化处理,从而最大化利用硬件的多核性能,成倍地提升处理效率;
OpenMP适用场景通常满足以下条件:

  1. 一个代码块被重复调用,且每次耗时较长,或者耗时较短但重复调用次数非常多;
  2. 被重复调用的代码块中,每次处理的数据之间,独立性较强,不存在线程安全问题,或者只有少数需要线程互斥的操作;
  3. 在一个算法中,被重复调用的代码块,是在一个顺序执行的逻辑中的;在引入并行处理提高效率的同时,期望算法逻辑保持简单,不希望引入过多的异步控制;

注意:以上的条件并不是绝对的,实际开发中还是需要根据算法/需求的特性,来衡量OpenMP是否能够有效地提高代码的执行效率,滥用OpenMP有时只会徒增代码的复杂性、降低运行效率;

开启方式

一般情况下,默认的C++编程环境是没有开启OpenMP支持的,需要手动开启;开启之后只需要在使用omp的地方包含头文件即可:

#include <omp.h>

VisualStudio开启方式

打开项目属性页 => 配置属性 => C/C++ => 语言 => OpenMP支持
image.png

QtCreator开启方式

在pro项目文件中加入行:

 QMAKE_CXXFLAGS += /openmp

CMake开启方式

FIND_PACKAGE( OpenMP REQUIRED)
if(OPENMP_FOUND)message("OPENMP FOUND")set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} ${OpenMP_C_FLAGS}")set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} ${OpenMP_CXX_FLAGS}")set(CMAKE_EXE_LINKER_FLAGS"${CMAKE_EXE_LINKER_FLAGS}${OpenMP_EXE_LINKER_FLAGS}")
endif()

OpenMP的指令

概览

OpenMP中的指令有:

  • parallel,用在一个代码段之前,表示这段代码将被多个线程并行执行;
  • for,用于for循环之前,将循环分配到多个线程中并行执行,必须保证每次循环之间无相关性;
  • parallel for, parallel 和 for语句的结合,也是用在一个for循环之前,表示for循环的代码将被多个线程并行执行;
  • sections,用在可能会被并行执行的代码段之前;
  • parallel sections,parallel和sections两个语句的结合;
  • critical,用在一段代码临界区之前;
  • single,用在一段只被单个线程执行的代码段之前,表示后面的代码段将被单线程执行;
  • flush,用于保证各个OpenMP线程的数据影像的一致性;
  • barrier,用于并行区内代码的线程同步,所有线程执行到barrier时要停止,直到所有线程都执行到barrier时才继续往下执行;
  • atomic,用于指定一块内存区域被制动更新;
  • master,用于指定一段代码块由主线程执行;
  • ordered,用于指定并行区域的循环按顺序执行;
  • threadprivate,用于指定一个变量是线程私有的;

常用案例

parallel

parallel指令用于创建并行域,可以和forsections等配合成为复合指令:

#pragma omp parallel [for | sections] [子句]
{// 并行代码
}
// 隐式同步

parallel指令之后的代码块,即为并行运行的代码块,并行代码执行完毕后,会隐式地进行线程同步;其执行次数通常可通过omp_set_num_theads()函数或num_threads字句指定:

#pragma omp parallel num_threads(8)
{// 执行8次printf("ThreadId=%d\n", omp_get_thread_num());
}

for/parallel for

for指令需要与parallel指令配合使用,配合方式有两种;
第一种,与parallel组成复合指令(应用于单个for循环,使用简洁明了):

#pragma omp parallel for
for (int j=0; j<4; ++j) 
{printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());
}
// 隐式同步

第二种,与parallel嵌套使用(可用于单个或多个for循环,使用更加灵活):

#pragma omp parallel
{#pragma omp forfor(int j=0; j<4; ++j){printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());}// 隐式同步
}

注意:for与parallel嵌套使用时,如果parallel指令中有多个for指令,会在完成第一个for指令后进行同步,然后执行第二个for指令后进行同步,如此类推,直到执行完成最后一个for指令;

另外,需要注意的是,for/parallel for指令对for循环的格式是有要求的,且在指令执行时,for循环的次数必须是固定且已知的:

std::vector<int> num_vector = { 0, 1, 3, 2, 5, 9, 4, 6 };// 正确
#pragma omp parallel for
for(int i=0; i<num_vector.size(); ++i) 
{printf("i=%d, num=%d\n", i, num_vector.at(i));
}// 错误
#pragma omp parallel for
for(auto num : num_vector)
{printf("num=%d\n", num);
}// 错误
#pragma omp parallel for
for(auto iter=num_vector.begin(); iter!=num_vector.end(); ++iter)
{printf("num=%d\n", *iter);
}

cirtical/atomic

critical用于执行并行代码中的互斥操作,也即相当于加锁操作:

int max_x = -1;
int max_y = -1;
#pragma omp parallel for
for(int i=0; i<n; ++i)
{#pragma omp criticalif (arx[i] > max_x){max_x = arx[i];}#pragma omp criticalif (ary[i] > max_y){max_y = ary[i];}
}

atomic跟critical类似,但如指令名,主要用于原子操作(+、-、*、/、&、^、<<、>>):

#pragma omp parallel
{for(int i=0; i<10000; ++i){#pragma omp atomic // 原子操作++counter;}
}

barrier

barrier指令也是用于代码同步,但有别于critical、atomic等用于多线程之间的互斥操作,barrier用于所有并行线程的强制同步,可以说是设置显式同步点(相对于OpenMP的隐式同步点,作用一样)的指令:

#pragma omp parallel
{Initialization();#pragma omp barrier // 显式同步点,等待所有线程完成Initialization()后, 继续执行后续代码Process();
}

OpenMP的函数库

概览

OpenMP中常用的函数有:

  • omp_get_num_procs,返回运行本线程的多处理机的处理器个数;
  • omp_get_num_threads,返回当前并行区域中的活动线程个数;
  • omp_get_thread_num,返回线程号;
  • omp_set_num_threads,设置并行执行代码时的线程个数;
  • omp_init_lock,初始化一个简单锁;
  • omp_set_lock,上锁操作;
  • omp_unset_lock,解锁操作,要和omp_set_lock函数配对使用;
  • omp_destroy_lockomp_init_lock函数的配对操作函数,关闭一个锁;

常用案例

omp_get_num_procs

omp_get_num_procs函数可以获取到当前机器的CPU数量(核数,或CPU的超线程数量);通常,如果算法中对于并行数量没有明确限制要求,可以通过该函数的返回值作为参考值,设置并行数量:

#pragma omp parallel for num_threads(omp_get_num_procs())
for(int i=0; i<10000; ++i)
{// 并行代码
}

omp_get_thread_num/omp_set_num_threads/omp_get_num_threads

omp_set_num_threads和omp_get_num_threads是设置和获取并行线程数量的一对接口,而omp_get_thread_num可以在并行代码之中获取当前线程号:

// 设置并行线程数量为4
omp_set_num_threads(4);#pragma omp parallel
{// 获取并打印线程ID(0/1/2/3)int tid = omp_get_thread_num();printf("Hello Word from OMP thread %d\n",tid);// 只有第一个线程执行if(tid == 0){// 获取当前的并行线程数量(此处固定为4)int nthreads = omp_get_num_threads();printf("Number of thread: %d\n",nthreads);}
}

omp_init_lock/omp_set_lock/omp_unset_lock/omp_destroy_lock

omp_init_lock与omp_destroy_lock是用于初始化锁/关闭锁的一对函数,omp_set_lock与omp_unset_lock是用于上锁/解锁的一对函数,对应的互斥锁类型为omp_lock_t

static omp_lock_t lock;
omp_init_lock(&lock);
#pragma omp parallel for
for(int i=0; i<5; ++i)
{omp_set_lock(&lock);printf("%d +\n", omp_get_thread_num());printf("%d -\n", omp_get_thread_num());omp_unset_lock(&lock);
}
omp_destroy_lock(&lock);

OpenMP的子句

概览

OpenMP中的子句有:

  • private, 指定每个线程都有它自己的变量私有副本;
  • firstprivate,指定每个线程都有它自己的变量私有副本,并且变量要被继承主线程中的初值;
  • lastprivate,主要是用来指定将线程中的私有变量的值在并行处理结束后复制回主线程中的对应变量;
  • reduction,用来指定一个或多个变量是私有的,并且在并行处理结束后这些变量要执行指定的运算;
  • nowait,忽略指定中暗含的等待;
  • num_threads,指定线程的个数;
  • schedule,指定如何调度for循环迭代;
  • shared,指定一个或多个变量为多个线程间的共享变量;
  • ordered,用来指定for循环的执行要按顺序执行;
  • copyprivate,用于single指令中的指定变量为多个线程的共享变量;
  • copyin,用来指定一个threadprivate的变量的值要用主线程的值进行初始化;
  • default,用来指定并行处理区域内的变量的使用方式,缺省是shared

常用案例:

private

OpenMP各个线程的变量是共享还是私有,是依据OpenMP自身的规则和相关的数据子句而定,而不是依据操作系统线程或进程上的变量特性而定;其中private(list)子句,可用来将一个或多个变量声明成线程私有的变量,变量声明成私有变量后,指定每个线程都有它自己的变量私有副本,其他线程无法访问私有副本;即使在并行域外有同名的共享变量,共享变量在并行域内不起任何作用,并且并行域内不会操作到外面的共享变量;

int k = 100;
#pragma omp parallel for private(k)
for (k=0; k<8; ++k)
{printf("k=%d\n", k);  // 0-7
}
printf("last k=%d\n", k); // 100

num_threads

num_threads可以用于指定一块并行代码的线程数量:

#pragma omp parallel for num_threads(8)
for(int i=0; i<10000; ++i)
{// 并行代码
}

schedule

适用场景

假如在一个parallel并行域中有多个for制导指令,在该并行域内的多个线程首先完成第一个for语句的任务分担,然后在此进行一次同步(for制导指令本身隐含有结束处的路障同步),然后再进行第二个for语句的任务分担,直到退出并行域并只剩下一个主线程为止;对于for循环的并行计算,如果仅仅像上面这种方式进行任务分配,假如循环变量不同时计算量不同,那么这样的分配是不合理的。
对于这种情况,我们可以使用schedule子句来解决。

子句格式

schedule子句的格式是schedule(type [,size])。type的类型有static、dynamic、guided三种调度方式,此外还可以是runtime,但runtime是根据环境变量OMP_SCHEDULED来选择前三种中的某种类型,相应的内部控制变量ICV是run-sched-var。size是可选的,默认为平均分配。size参数必须是整数,表示以循环迭代次数计算的划分单位,每个线程所承担的计算任务对应于0个或若干个size次循环。需要注意的是,当type参数类型为runtime时,size参数是非法的。

type:static

当for或者parallel for编译制导指令没有带schedule子句时,大部分系统中默认采用size为1的static调度方式。假设有n次循环迭代,t个线程,那么给每个线程静态分配大约n/t次迭代计算,当然不要钻什么除不尽这样的牛角尖,线程分配到的迭代次数相差一次就行了。如果指定了size,则可能相差更大。对两个线程,以schedule(static)为例,以for循环10次为例,它们将分别得到5次;再以schedule(static,2)为例,0、1次迭代分配给0号线程,2、3次迭代分配给1号线程,4、5次迭代分配给0号线程,6、7次迭代分配给1号线程,…

type:dynamic

schedule(dynamic)是按情况每size次迭代进行分配,各线程动态地申请任务,因此较快的线程可能申请更多次数,而较慢的线程申请任务次数可能较少,因此动态调度可以在一定程度上避免前面提到的按循环次数划分引起的负载不平衡问题。默认size为1,类似于static的情况,容易想到size被指定后的情形,就不再赘述。

type:guided

这是一种采用指导性的启发式自调度方法。开始时每个线程会分配到较大的迭代块,之后分配到的迭代块会逐渐递减。迭代块的大小会按指数级下降到指定的size大小,如果没有指定size参数,那么迭代块大小最小会降到1。下面举个例子,其中第0、1、2、3、4次迭代被分配给线程0,第5、6、7次迭代被分配给线程1,第8、9次迭代被分配给线程0,分配的迭代次数呈递减趋势,最后一次递减到2次;

#pragma omp parallel for schedule(guided,2)
for (j=0; j<10; ++j) 
{printf("j=%d, Threadid=%d\n", j, omp_get_thread_num());
}
/* 可能的打印结果:
i=0, thread_id=0
i=1, thread_id=0
i=2, thread_id=0
i=3, thread_id=0
i=4, thread_id=0 
i=8, thread_id=0
i=9, thread_id=0
i=5, thread_id=1
i=6, thread_id=1
i=7, thread_id=1 */

default

default(shared | none)子句,用来允许用户控制并行区域中变量的共享属性。使用shared时,缺省情况下,传入并行区域内的同名变量被当作共享变量来处理,不会产生线程私有副本,除非使用private等子句来指定某些变量为私有的才会产生副本。如果使用none作为参数,除了那些由明确定义的除外,线程中用到的变量都必须显式指定为是共享的还是私有的;

这篇关于C++中OpenMP的使用方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/782131

相关文章

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

【C++ Primer Plus习题】13.4

大家好,这里是国中之林! ❥前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站。有兴趣的可以点点进去看看← 问题: 解答: main.cpp #include <iostream>#include "port.h"int main() {Port p1;Port p2("Abc", "Bcc", 30);std::cout <<

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

C++包装器

包装器 在 C++ 中,“包装器”通常指的是一种设计模式或编程技巧,用于封装其他代码或对象,使其更易于使用、管理或扩展。包装器的概念在编程中非常普遍,可以用于函数、类、库等多个方面。下面是几个常见的 “包装器” 类型: 1. 函数包装器 函数包装器用于封装一个或多个函数,使其接口更统一或更便于调用。例如,std::function 是一个通用的函数包装器,它可以存储任意可调用对象(函数、函数

C++11第三弹:lambda表达式 | 新的类功能 | 模板的可变参数

🌈个人主页: 南桥几晴秋 🌈C++专栏: 南桥谈C++ 🌈C语言专栏: C语言学习系列 🌈Linux学习专栏: 南桥谈Linux 🌈数据结构学习专栏: 数据结构杂谈 🌈数据库学习专栏: 南桥谈MySQL 🌈Qt学习专栏: 南桥谈Qt 🌈菜鸡代码练习: 练习随想记录 🌈git学习: 南桥谈Git 🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈�

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

06 C++Lambda表达式

lambda表达式的定义 没有显式模版形参的lambda表达式 [捕获] 前属性 (形参列表) 说明符 异常 后属性 尾随类型 约束 {函数体} 有显式模版形参的lambda表达式 [捕获] <模版形参> 模版约束 前属性 (形参列表) 说明符 异常 后属性 尾随类型 约束 {函数体} 含义 捕获:包含零个或者多个捕获符的逗号分隔列表 模板形参:用于泛型lambda提供个模板形参的名