论文:用GNN(化合物)和CNN(蛋白)进行CPI预测

2023-10-29 19:41

本文主要是介绍论文:用GNN(化合物)和CNN(蛋白)进行CPI预测,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

用GNN(化合物)和CNN(蛋白)进行CPI预测

github地址
题目:Compound-protein interaction (CPI) prediction using a GNN for compounds and a CNN for proteins
在这里插入图片描述
Furthermore, by using the obtained weights, the neural attention mechanism provides clear visualizations, which makes models easier to analyze (Fig. 9) even when modeling is performed using real-valued vector representations rather than discrete features.

总的来说,这篇文章使用的分子特征有:

1,每个原子的编号,每个原子是否有芳香性,
在这里插入图片描述
2,每个原子周围有几个几号原子,对应的分别是什么健类型
在这里插入图片描述
3,使用了分子指纹,Weisfeiler-Lehman(WL)算法算出来的,根据半径进行卷积,具体的原理我也不是特别清楚
在这里插入图片描述
4,使用了邻接矩阵
在这里插入图片描述
5,

示例分子:
在这里插入图片描述

遇到的知识点学习

1,from collections import defaultdict
Python defaultdict() 的理解
在这里插入图片描述
在这里插入图片描述
defaultdict lambda 用法
在这里插入图片描述

2,什么是Weisfeiler-Lehman(WL)算法和WL Test?
本文中用到了,但是我不清楚其具体的原理,目前先理解为进行了一下图卷积

3,这里有for循环的高阶用法

    words = [word_dict[sequence[i:i+ngram]]for i in range(len(sequence)-ngram+1)]
word_dict = defaultdict(lambda: len(word_dict))def split_sequence(sequence, ngram):sequence = '-' + sequence + '='words = [word_dict[sequence[i:i+ngram]]for i in range(len(sequence)-ngram+1)]return np.array(words)split_sequence('ab=aaabb=ababba=', 2)
output>>> array([0, 1, 2, 3, 4, 4, 1, 5, 2, 3, 1, 6, 1, 5, 6, 7, 8])

4,sys.argv[] 用法
这个实在是看不懂。。。
5,python 中 map函数的用法(超详细)
6, python enumerate用法总结
对于一个可迭代的(iterable)/可遍历的对象(如列表、字符串),enumerate将其组成一个索引序列,利用它可以同时获得索引和值
7,strip()函数使用方法
1.默认用法:去除空格
str.strip() : 去除字符串两边的空格 str.lstrip() : 去除字符串左边的空格 str.rstrip() : 去除字符串右边的空格
注:此处的空格包含’\n’, ‘\r’, ‘\t’, ’ ’
2、去除指定字符
str.strip(‘do’) :去除字符串两端指定的字符 str.lstrip(‘do’) :用于去除左边指定的字符 str.rstrip(‘do’) :用于去除右边指定的字符
8,复习pytorch构架
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
9,zip 函数
10,pytorch中squeeze()和unsqueeze()函数介绍
11,nn.moduleList 和Sequential由来、用法和实例 —— 写网络模型
12,torch.matmul()用法介绍

这篇关于论文:用GNN(化合物)和CNN(蛋白)进行CPI预测的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/302936

相关文章

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

业务中14个需要进行A/B测试的时刻[信息图]

在本指南中,我们将全面了解有关 A/B测试 的所有内容。 我们将介绍不同类型的A/B测试,如何有效地规划和启动测试,如何评估测试是否成功,您应该关注哪些指标,多年来我们发现的常见错误等等。 什么是A/B测试? A/B测试(有时称为“分割测试”)是一种实验类型,其中您创建两种或多种内容变体——如登录页面、电子邮件或广告——并将它们显示给不同的受众群体,以查看哪一种效果最好。 本质上,A/B测

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

遮罩,在指定元素上进行遮罩

废话不多说,直接上代码: ps:依赖 jquer.js 1.首先,定义一个 Overlay.js  代码如下: /*遮罩 Overlay js 对象*/function Overlay(options){//{targetId:'',viewHtml:'',viewWidth:'',viewHeight:''}try{this.state=false;//遮罩状态 true 激活,f

利用matlab bar函数绘制较为复杂的柱状图,并在图中进行适当标注

示例代码和结果如下:小疑问:如何自动选择合适的坐标位置对柱状图的数值大小进行标注?😂 clear; close all;x = 1:3;aa=[28.6321521955954 26.2453660695847 21.69102348512086.93747104431360 6.25442246899816 3.342835958564245.51365061796319 4.87

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin