阅读笔记--MolGAN: An implicit generative model for small molecular graphs

本文主要是介绍阅读笔记--MolGAN: An implicit generative model for small molecular graphs,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

阅读笔记-MolGAN: An implicit generative model for small molecular graphs

  • 概要
  • 背景介绍
    • 分子图
    • 隐式生成模型与似然生成模型
    • GAN 与 Improved WGAN
    • Deterministic policy gradients
  • 模型
    • 模型架构
    • 生成器
    • 判别器与反馈网络
  • 实验
    • 分子生成
    • 药物发现
  • 总结

概要

寻找具有理想性质的新化合物是一项具有挑战性的任务,具有重要的应用,如新药设计。可合成分子的空间是巨大的,在这个空间中寻找是非常困难的,这主要是由于它的离散性质。最近在开发深层生成模型方面取得的进展催生了一系列解决这一问题的有希望的提议。SMILES是一种从分子图派生的基于字符串的表示法。例如苯可以表示为: c 1 c c c c c 1 c1ccccc1 c1ccccc1。所以可以把它看作一个像语句那样的序列,然后利用基于RNN的生成方法来生成。但它的缺点为RNN必须花费能力来学习语法规则和表示的顺序歧义。 此外,这是不适用于一般(非分子)图的方法。SMILES字符串是从基于图的分子表示中生成的,因此在原始图空间中工作可以减少额外的开销。基于似然性的分子图生成方法需要提供固定(或随机选择)的图表示或昂贵的图匹配程序来评估生成的分子的可能性,因为对所有可能的节点排序的评估对于小尺寸的图的计算成本已经是非常高的了。
在这篇文章中作者利用生成对抗网络来生成分子图。并利用强化学习辅助生成具有具体属性的分子。

背景介绍

分子图

G \mathcal G G将一个分子表示为一个无向图。对于一个具有N个节点一个分子图可以由如下两个矩阵表示:

  • A ∈ R N × N × Y A\in\mathbb R^{N\times N\times Y} ARN×N×Y:邻接矩阵。 Y Y Y代表着分子图中具有Y种共价键(如单键、双键以及三键)。 A i j ∈ R Y A_{ij}\in\mathbb R^{Y} AijRY代表着原子 i , j i,j i,j之间的共价键类型(用 o n e − h o t one-hot onehot向量来表示)。
  • X = [ x 1 , . . . , x N ] T ∈ R N × T X=[x_{1},...,x_{N}]^{T}\in\mathbb R^{N\times T} X=[x1,...,xN]TRN×T是节点特征矩阵。每个原子对应于一个节点 v i ∈ V v_{i}\in \mathcal V viV;这个节点用一个 T T T维的one-hot向量 x i x_{i} xi来表示。

隐式生成模型与似然生成模型

当我们生成图结构数据时,我们希望模型具有置换不变性。否则,我们就要执行一个计算量非常大的图匹配过程来评价模型所生成的图的质量。似然生成模型的优化过程更加稳定并且简单,但显式地评估所有可能节点排列的可能性的计算量很大,也就是似然的方法很难满足置换不变性。但基于生成对抗网络的方法则完全解决了这个问题,因为很多图卷积方法是置换不变的,我们可以用这些图卷积来构建我们的判别器。

GAN 与 Improved WGAN

详见:

  • WGAN
  • GAN
  • WGAN-GP

Deterministic policy gradients

在药物生成中,我们生成的分子,不仅要满足化学定义,而且要有一些有用的性质(比如说易于合成)。而这种目标对于训练过程来说其实是不可微的,所以需要引入强化学习来优化那些不可微的指标的生成过程。
在本文中作者采用了 D D P G DDPG DDPG,大致意思是生成器生成将先验 z z z生成为一个图结构 G \mathcal G G。作者构建了一个 R e w a r d f u n c t i o n R ^ ψ ( G ) Reward\;function\;\hat R_{\psi}(\mathcal G) RewardfunctionR^ψ(G)根据 G \mathcal G G得到一个输出奖励,然后将其和真正的奖励(由外部系统提供,例如,分子的可合成性得分)做均方误差损失,并通过最小化这个损失来提供生成器训练所需的梯度。

模型

在这里插入图片描述

模型架构

  • 生成器: N = 9 , T = 5 , Y = 4 N=9,T=5,Y=4 N=9T=5Y=4,并且先根据正态分布采样一个32维的潜在表示 z ∼ N ( 0 , I ) z\sim\mathcal N(0,I) zN(0,I)。生成器是三层 M L P [ 128 , 256 , 512 ] \mathbf {MLP}[128,256,512] MLP[128,256,512],并且将 t a n h tanh tanh作为每层的激活函数。最后一层被线性投影以匹配X和A维数,并利用 s o f t m a x softmax softmax来进行正则化。
  • 判别器与反馈网络架构:两者都使用两层的 R e l a t i o n a l G C N Relational\;GCN RelationalGCN,但并不共享参数。将图网络的输出经过处理得到图表示向量,并将得到的图表示向量输入一个两层的 M L P [ 128 , 1 ] \mathbf {MLP}[128,1] MLP[128,1]来得到最终的输出。 M L P \mathbf{MLP} MLP中判别器采用 t a n h tanh tanh作为激活函数,而反馈网络采用 s i g m o i d sigmoid sigmoid作为激活函数。

生成器

参考:

  • Categorical Reparameterization with Gumbel-Softmax
  • 带你认识神奇的Gumbel trick

作者发现预先选择最大尺寸的图,可以以更快的速度训练,并且也更容易优化。生成器的目标函数为:
在这里插入图片描述
对于生成过程:采样 z z z送入生成器生成A与X,接下来为了得到分子图,采取离散稀疏化送入判别器与奖励网络。但这样将使得生成器失去用来更新参数的梯度。作者采用了三种方法来解决这个问题:

  • 不采用离散稀疏化,直接将生成的概率矩阵送入判别器与奖励网络;
  • 将X与A与Gumbel噪声相加然后送入判别器与奖励网络;
    在这里插入图片描述
    在这里插入图片描述
  • 利用link中提到的方法来获取梯度。

判别器与反馈网络

  • 奖励网络是用来近似奖励函数,并利用强化学习来使得模型向不可微的方向进行优化。数据集中的图和生成的图都是奖励网络的输入,但与判别器不同的是,奖励网络要给每个分子打分(比如生成的分子溶于水的可能性有多大,真实的分数由RDKit提供)。并且当生成的分子在化学上无效时,整个奖励网络将输出0。
  • 判别器利用WGAN来训练,即:
    在这里插入图片描述

判别器 D ϕ D_{\phi} Dϕ与奖励网络 R ^ ψ \hat R_{\psi} R^ψ豆浆图结构作为输入并输出一个标量,并且两者采用相同的架构,但不共享参数。先是由一系列的图卷积 R e l a t i o n a l G C N Relational\;GCN RelationalGCN
在这里插入图片描述
经过若干层的图卷积后,由下式得到图表示向量:
在这里插入图片描述
将得到的 h G h_{\mathcal G} hG作为一个MLP的输入得到一个标量。前向传播的过程由此结束。

实验

分子生成

分子图生成任务常用的三个指标:

  • Validity:生成的分子中符合化学规定的分子的数量与总生成数量之比;
  • Novelty:生成的有效的分子中并不属于原数据集(即新生成的)的分子的数量与总的有效分子数量之比;
  • Uniqueness:生成的分子不在数据集中的分子数与有效的分子数之比。这个指标反映了以衡量抽样过程中样本的变化程度。

除此之外,作者还将solubility(可溶性)作为一个实验指标,来进行实验。实验过程中作者发现,尽管使用了WGAN,模型崩溃还是会出现。并且作者还注意到奖励网络需要几个阶段的预训练才能将梯度传播到产生器,否则产生器很容易发散。所以作者在起初的几个epochs里,作者只用对抗损失来训练生成器,在同时也训练奖励网络但并不将 L R L \mathbf L_{RL} LRL用于训练生成器。作者发现当 L R L L_{RL} LRL占的比重比较大时,生成分子的有效性这一指标会增加。

药物发现

药物发现任务常用的评价指标:

  • Druglikeness:一种化合物成为药物的可能性有多大;常用 Q E D ( Q u a n t i t a t i v e E s t i m a t e o f D r u g l i k e n e s ) \mathbf {QED}(Quantitative\;\;Estimate\;of\;\;\;Druglikenes) QED(QuantitativeEstimateofDruglikenes),用期望值加权几何平均值来量化化合物特性,捕捉几种药物属性的潜在数据分布。
  • Solubility:表示分子亲水性的程度;对数辛醇-水分配系数( l o g P \mathbf{log}\mathbf P logP):其定义为一个溶质在两种溶剂中浓度比值的对数。
  • Synthetizability:这种方法可以量化一个分子合成的难易程度;SA score(Synthetic Accessibility score):是一种用概率方法估计综合易用性的方法。

作者在进行实验优化 L R L L_{RL} LRL时,并不是分别优化以上目标,而是进行了联合优化,将这几个指标相乘作为最终要优化的指标。

实验结果:
在这里插入图片描述

总结

MolGAN的一个局限是对于模型崩溃的敏感性。RL与GAN的目标函数都不鼓励产生多样的非独特的输出,因此模型被拉向一个只涉及很少样本可变性的解决方案,如果训练没有及早的停止,最终将导致仅产生少量不同的分子。

这篇关于阅读笔记--MolGAN: An implicit generative model for small molecular graphs的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/314196

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi

取得 Git 仓库 —— Git 学习笔记 04

取得 Git 仓库 —— Git 学习笔记 04 我认为, Git 的学习分为两大块:一是工作区、索引、本地版本库之间的交互;二是本地版本库和远程版本库之间的交互。第一块是基础,第二块是难点。 下面,我们就围绕着第一部分内容来学习,先不考虑远程仓库,只考虑本地仓库。 怎样取得项目的 Git 仓库? 有两种取得 Git 项目仓库的方法。第一种是在本地创建一个新的仓库,第二种是把其他地方的某个