IBM Qiskit量子机器学习速成(六)

2023-12-10 18:28

本文主要是介绍IBM Qiskit量子机器学习速成(六),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

量子卷积神经网络

卷积和池化:卷积神经网络的必备成分

卷积神经网络被广泛应用于图像和音频的识别当中,关键在于“卷积”操作赋予神经网络统筹学习数据的能力。

执行卷积操作需要输入数据与卷积核,卷积核首先与输入数据左上角对齐,随后逐个计算对应位置处两个数字之积。当对卷积核中所有的元素均执行该乘积操作后,将结果全部加起来作为新的输出。在下图中,我们可以看到卷积核最多只能输出9个数据(就像游戏2048一样)。

在这里插入图片描述

下面的动态图能更直观的展现这一过程

在这里插入图片描述

每一次池化操作都需要输入数据和池化核,池化核会根据某一要求挑选出符合条件的元素作为代表。

在这里插入图片描述

如果我们执行最大池化,那么池化核会首先与输入数据左上角对齐,挑选出范围内最大的元素作为输出。如果我们执行平均池化,那么池化核会首先与输入数据左上角对齐,挑选出范围内所有元素的平均值作为输出。

一般而言,一个卷积神经网络会间隔包含卷积层和池化层,多次重复后,再加上一个全连接层(Fully Connected),就能得到最终数据了。我们一般使用经过卷积神经网络处理后的图片或音频进行机器学习,这样学习的参数更少,速度更快,同时保留了原先数据的特点。

在这里插入图片描述

量子卷积与量子池化

在量子电路中,我们不能随心所欲的创建和使用数据。在经典卷积神经网络中,输出和输入或许是分离存储的,但是在量子电路中,我们只能一直使用若干条量子电路,不能在执行过程中将其切开。

在这里插入图片描述

根据相关论文结果,量子中的卷积操作如下

在这里插入图片描述

最一般的量子卷积包含了15个参数,但是过多的参数会严重延长训练时间,出于教学目的,我们使用这一简化的卷积操作。

根据相关论文结果,量子中的池化操作如下

在这里插入图片描述

我们像经典池化操作一样抛弃一些数据,这里我们抛弃位于上方的量子比特,保留下方的量子比特。

使用Qiskit将卷积和池化写成代码形式

def conv_circuit(params):target = QuantumCircuit(2)target.rz(-np.pi / 2, 1)target.cx(1, 0)target.rz(params[0], 0)target.ry(params[1], 1)target.cx(0, 1)target.ry(params[2], 1)target.cx(1, 0)target.rz(np.pi / 2, 0)return target
def pool_circuit(params):target = QuantumCircuit(2)target.rz(-np.pi / 2, 1)target.cx(1, 0)target.rz(params[0], 0)target.ry(params[1], 1)target.cx(0, 1)target.ry(params[2], 1)return target

而在一个大型量子电路中,我们不能只在某两个量子比特上使用卷积和池化,所以我们需要编写一套适用于大型量子电路的卷积和池化函数

def conv_layer(num_qubits, param_prefix):qc = QuantumCircuit(num_qubits, name="Convolutional Layer")qubits = list(range(num_qubits))param_index = 0params = ParameterVector(param_prefix, length=num_qubits * 3)for q1, q2 in zip(qubits[0::2], qubits[1::2]):qc = qc.compose(conv_circuit(params[param_index : (param_index + 3)]), [q1, q2])qc.barrier()param_index += 3for q1, q2 in zip(qubits[1::2], qubits[2::2] + [0]):qc = qc.compose(conv_circuit(params[param_index : (param_index + 3)]), [q1, q2])qc.barrier()param_index += 3qc_inst = qc.to_instruction()qc = QuantumCircuit(num_qubits)qc.append(qc_inst, qubits)return qc

对于四个量子比特的电路,结果 如下

在这里插入图片描述

容易看出该函数的意义即对电路中任意两个不同量子比特施加卷积操作。

同样地,我们也可以定义适用于大型量子电路的池化函数

def pool_layer(sources, sinks, param_prefix):num_qubits = len(sources) + len(sinks)qc = QuantumCircuit(num_qubits, name="Pooling Layer")param_index = 0params = ParameterVector(param_prefix, length=num_qubits // 2 * 3)for source, sink in zip(sources, sinks):qc = qc.compose(pool_circuit(params[param_index : (param_index + 3)]), [source, sink])qc.barrier()param_index += 3qc_inst = qc.to_instruction()qc = QuantumCircuit(num_qubits)qc.append(qc_inst, range(num_qubits))return qc

在这里插入图片描述

可以看出,池化操作先把整个电路分成若干个量子比特对,对与对之间相互不干扰,每个对内再执行池化操作。

实战演练:水平线与竖直线的分类

首先我们导入本次用到的所有库

import json
import matplotlib.pyplot as plt
import numpy as np
from IPython.display import clear_output
from qiskit import QuantumCircuit
from qiskit.circuit import ParameterVector
from qiskit.circuit.library import ZFeatureMap
from qiskit.quantum_info import SparsePauliOp
from qiskit_algorithms.optimizers import COBYLA
from qiskit_algorithms.utils import algorithm_globals
from qiskit_machine_learning.algorithms.classifiers import NeuralNetworkClassifier
from qiskit_machine_learning.neural_networks import EstimatorQNN
from sklearn.model_selection import train_test_splitalgorithm_globals.random_seed = 12345

进一步,手动生成数据。我们会编写函数生成大量包含水平线或竖直线的图片。

def generate_dataset(num_images):images = []labels = []hor_array = np.zeros((6, 8))ver_array = np.zeros((4, 8))j = 0for i in range(0, 7):if i != 3:hor_array[j][i] = np.pi / 2hor_array[j][i + 1] = np.pi / 2j += 1j = 0for i in range(0, 4):ver_array[j][i] = np.pi / 2ver_array[j][i + 4] = np.pi / 2j += 1for n in range(num_images):rng = algorithm_globals.random.integers(0, 2)if rng == 0:labels.append(-1)random_image = algorithm_globals.random.integers(0, 6)images.append(np.array(hor_array[random_image]))elif rng == 1:labels.append(1)random_image = algorithm_globals.random.integers(0, 4)images.append(np.array(ver_array[random_image]))# Create noisefor i in range(8):if images[-1][i] == 0:images[-1][i] = algorithm_globals.random.uniform(0, np.pi / 4)return images, labels

进行训练集和测试集分割

images, labels = generate_dataset(50)train_images, test_images, train_labels, test_labels = train_test_split(images, labels, test_size=0.3
)

为了将经典数据编码到量子电路中,我们还是需要一个特征映射。这里我们使用ZFeatureMao而不是ZZFeatureMap。

feature_map = ZFeatureMap(8)
feature_map.decompose().draw("mpl")

组合卷积层和池化层,创建量子卷积神经网络

feature_map = ZFeatureMap(8)ansatz = QuantumCircuit(8, name="Ansatz")# First Convolutional Layer
ansatz.compose(conv_layer(8, "с1"), list(range(8)), inplace=True)# First Pooling Layer
ansatz.compose(pool_layer([0, 1, 2, 3], [4, 5, 6, 7], "p1"), list(range(8)), inplace=True)# Second Convolutional Layer
ansatz.compose(conv_layer(4, "c2"), list(range(4, 8)), inplace=True)# Second Pooling Layer
ansatz.compose(pool_layer([0, 1], [2, 3], "p2"), list(range(4, 8)), inplace=True)# Third Convolutional Layer
ansatz.compose(conv_layer(2, "c3"), list(range(6, 8)), inplace=True)# Third Pooling Layer
ansatz.compose(pool_layer([0], [1], "p3"), list(range(6, 8)), inplace=True)# Combining the feature map and ansatz
circuit = QuantumCircuit(8)
circuit.compose(feature_map, range(8), inplace=True)
circuit.compose(ansatz, range(8), inplace=True)observable = SparsePauliOp.from_list([("Z" + "I" * 7, 1)])# we decompose the circuit for the QNN to avoid additional data copying
qnn = EstimatorQNN(circuit=circuit.decompose(),observables=observable,input_params=feature_map.parameters,weight_params=ansatz.parameters,
)

根据量子卷积神经网络创建分类器

classifier = NeuralNetworkClassifier(qnn,optimizer=COBYLA(maxiter=200),  # Set max iterations here
)

拟合数据,测试结果

x = np.asarray(train_images)
y = np.asarray(train_labels)
classifier.fit(x, y)y_predict = classifier.predict(test_images)
x = np.asarray(test_images)
y = np.asarray(test_labels)
print(f"Accuracy from the test data : {np.round(100 * classifier.score(x, y), 2)}%")

如果将结果可视化的话(详见Qiskit量子卷积神经网络),应如下图

在这里插入图片描述

这篇关于IBM Qiskit量子机器学习速成(六)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/477941

相关文章

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个