Systems biology informed deep learning for inferring parameters and hidden dynamics

本文主要是介绍Systems biology informed deep learning for inferring parameters and hidden dynamics,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  • 作者:Alireza Yazdani1, Lu Lu1, Maziar Raissi2, George Em Karniadakis1
  • 单位:
  1. Division of Applied Mathematics, Brown University, Providence, RI 02912, USA,
  2. Department of Applied Mathematics, University of Colorado, Boulder, CO 80309, USA

1 动机:

  • 在系统集生物反应的数学模型可由带未知参数的ODE描述,使用reliable and robust的算法进行参数推断以及解的预测是系统生物学中的关键核心

2 主要研究内容:

  • 提出a new systems-biology-informed deep learning algorithm,该算法能够融合ODE到神经网络中
  • 使用少量分散和噪声测量,能够对未观察的species、外部的动力学以及未知模型参数的dynamics进行推断
  • 在三种不同的benchmark问题上进行测试

3 问题与方法

3.1 问题定义

KaTeX parse error: {equation} can be used only in display mode. (1)
其中, x = ( x 1 , x 2 , … , x S ) \mathbf{x}=\left(x_{1}, x_{2}, \ldots, x_{S}\right) x=(x1,x2,,xS) S S S p = ( p 1 , p 2 , … , p K ) \mathbf{p}=\left(p_{1}, p_{2}, \ldots, p_{K}\right) p=(p1,p2,,pK)是模型的 K K K个参数,需要被估计。一旦 p p p确定,该系统的ODE就能确定。 y \mathbf{y} y M M M个测量信号(带有高斯噪音的数据)。 h \mathbf{h} h由实验设计确定,可以为any function,在这假设为线性函数
( y 1 y 2 ⋯ y M ) = ( x s 1 x s 2 ⋯ x s M ) + ( ϵ s 1 ϵ s 2 ⋯ ϵ s M ) \left(\begin{array}{c} y_{1} \\ y_{2} \\ \cdots \\ y_{M} \end{array}\right)=\left(\begin{array}{c} x_{s_{1}} \\ x_{s_{2}} \\ \cdots \\ x_{s_{M}} \end{array}\right)+\left(\begin{array}{c} \epsilon_{s_{1}} \\ \epsilon_{s_{2}} \\ \cdots \\ \epsilon_{s_{M}} \end{array}\right) y1y2yM = xs1xs2xsM + ϵs1ϵs2ϵsM (2)

3.2 Systems-informed neural networks and parameter inference

![image.png](https://img-blog.csdnimg.cn/img_convert/eadcfac9abb0b3c4c3e6589ed0731c2b.png#align=left&display=inline&height=379&margin=[object Object]&name=image.png&originHeight=758&originWidth=1523&size=222031&status=done&style=none&width=761.5)
KaTeX parse error: {equation} can be used only in display mode.(3)
L d a t a ( θ ) = ∑ m = 1 M w m d a t a L m d a t a = ∑ m = 1 M w m d a t a [ 1 N d a t a ∑ n = 1 N d a t a ( y m ( t n ) − x ^ s m ( t n ; θ ) ) 2 ] \mathcal{L}^{d a t a}(\boldsymbol{\theta})=\sum_{m=1}^{M} w_{m}^{d a t a} \mathcal{L}_{m}^{d a t a}=\sum_{m=1}^{M} w_{m}^{d a t a}\left[\frac{1}{N^{d a t a}} \sum_{n=1}^{N^{d a t a}}\left(y_{m}\left(t_{n}\right)-\hat{x}_{s_{m}}\left(t_{n} ; \boldsymbol{\theta}\right)\right)^{2}\right] Ldata(θ)=m=1MwmdataLmdata=m=1Mwmdata[Ndata1n=1Ndata(ym(tn)x^sm(tn;θ))2](4)
L o d e ( θ , p ) = ∑ s = 1 S w s o d e L s o d e = ∑ s = 1 S w s o d e [ 1 N o d e ∑ n = 1 N o d e ( d x ^ s d t ∣ τ n − f s ( x ^ s ( τ n ; θ ) , τ n ; p ) ) 2 ] \mathcal{L}^{o d e}(\boldsymbol{\theta}, \mathbf{p})=\sum_{s=1}^{S} w_{s}^{o d e} \mathcal{L}_{s}^{o d e}=\sum_{s=1}^{S} w_{s}^{o d e}\left[\frac{1}{N^{o d e}} \sum_{n=1}^{N^{o d e}}\left(\left.\frac{d \hat{x}_{s}}{d t}\right|_{\tau_{n}}-f_{s}\left(\hat{x}_{s}\left(\tau_{n} ; \boldsymbol{\theta}\right), \tau_{n} ; \mathbf{p}\right)\right)^{2}\right] Lode(θ,p)=s=1SwsodeLsode=s=1Swsode[Node1n=1Node(dtdx^s τnfs(x^s(τn;θ),τn;p))2](5)
L a u x ( θ ) = ∑ s = 1 S w s a u x L s a u x = ∑ s = 1 S w s a u x ( x s ( T 0 ) − x ^ s ( T 0 ; θ ) ) 2 + ( x s ( T 1 ) − x ^ s ( T 1 ; θ ) ) 2 2 \mathcal{L}^{a u x}(\boldsymbol{\theta})=\sum_{s=1}^{S} w_{s}^{a u x} \mathcal{L}_{s}^{a u x}=\sum_{s=1}^{S} w_{s}^{a u x} \frac{\left(x_{s}\left(T_{0}\right)-\hat{x}_{s}\left(T_{0} ; \boldsymbol{\theta}\right)\right)^{2}+\left(x_{s}\left(T_{1}\right)-\hat{x}_{s}\left(T_{1} ; \boldsymbol{\theta}\right)\right)^{2}}{2} Laux(θ)=s=1SwsauxLsaux=s=1Swsaux2(xs(T0)x^s(T0;θ))2+(xs(T1)x^s(T1;θ))2(6)
前两项为data loss、ODE loss,最后一项为auxiliary loss,是系统的额外信息,包含两个时间点 T 0 T_{0} T0 T 1 T_{1} T1,第一项与第三项属于监督loss,第二项为无监督loss。

  • 在(4-6)中系数 M + 2 S M+2S M+2S个损失项,在这篇论文中,手动选择权重系数,使得加权的损失在网络训练中保持相同的数量级(待理解,为什么要一样数据集,是有什么特性吗
  • 对于第一项 t 1 , t 2 , … , t N d a t a t_{1}, t_{2}, \ldots, t_{N^{d a t a}} t1,t2,,tNdata,随机采时间点;对于ODE loss中的time instant τ 1 , τ 2 , … , τ N o d e \tau_{1}, \tau_{2}, \ldots, \tau_{N^{o d} e} τ1,τ2,,τNode在一个等距离的网格中选择;第****三项 T 0 T_{0} T0为初值点, T 1 T_{1} T1可以在训练时间链上选择任意时间(但是不要离 T 0 T_{0} T0太近)

4 Analysis of system’s identifiability

  • 在systems identification problems中,主要有两类identifiability,structural和practical。结构不可识别性由于 y y y解的冗余参数化,这是由于观测数据 y y y x x x的insufficient的映射 h \mathbf{h} h由于实验数据被忽视,出现了practical非识别性
  • 结构上的可识别参数也可能是practical非识别性。practical非识别性与测量数据数量与质量有关,在一个无限的置信区间显示。

步骤

  • 先考虑监督的loss(第一项和第三项)进行训练,使得网络能够快速拟合观察数据
  • 然后再用三种损失进行训练

通过实验发现,这种两阶段训练策略加快了网络的收敛速度

5 实验

image.png

5.1 yeast glycolysis

image.png
image.png

  • 添加的ODE loss能防止网络过拟合
  • Standard deviation是基于FIM得到,结构/实际可识别性分析或bootstrapping方法获得参数置信区间,这里使用的是FIM

6 总结

  • 利用网络训练拟合模型参数
  • 提出了system-biology -informed 神经算法,能够可靠而准确的推断hidden dynamics
  • 能够用很少的观测数据对dynamics和模型参数进行推断

这篇关于Systems biology informed deep learning for inferring parameters and hidden dynamics的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/710051

相关文章

简单的Q-learning|小明的一维世界(3)

简单的Q-learning|小明的一维世界(1) 简单的Q-learning|小明的一维世界(2) 一维的加速度世界 这个世界,小明只能控制自己的加速度,并且只能对加速度进行如下三种操作:增加1、减少1、或者不变。所以行动空间为: { u 1 = − 1 , u 2 = 0 , u 3 = 1 } \{u_1=-1, u_2=0, u_3=1\} {u1​=−1,u2​=0,u3​=1}

简单的Q-learning|小明的一维世界(2)

上篇介绍了小明的一维世界模型 、Q-learning的状态空间、行动空间、奖励函数、Q-table、Q table更新公式、以及从Q值导出策略的公式等。最后给出最简单的一维位置世界的Q-learning例子,从给出其状态空间、行动空间、以及稠密与稀疏两种奖励函数的设置方式。下面将继续深入,GO! 一维的速度世界 这个世界,小明只能控制自己的速度,并且只能对速度进行如下三种操作:增加1、减

Deep Ocr

1.圈出内容,文本那里要有内容.然后你保存,并'导出数据集'. 2.找出deep_ocr_recognition_training_workflow.hdev 文件.修改“DatasetFilename := 'Test.hdict'” 310行 write_deep_ocr (DeepOcrHandle, BestModelDeepOCRFilename) 3.推理test.hdev

Learning Memory-guided Normality for Anomaly Detection——学习记忆引导的常态异常检测

又是一篇在自编码器框架中研究使用记忆模块的论文,可以看做19年的iccv的论文的衍生,在我的博客中对19年iccv这篇论文也做了简单介绍。韩国人写的,应该是吧,这名字听起来就像。 摘要abstract 我们解决异常检测的问题,即检测视频序列中的异常事件。基于卷积神经网络的异常检测方法通常利用代理任务(如重建输入视频帧)来学习描述正常情况的模型,而在训练时看不到异常样本,并在测试时使用重建误

Learning Temporal Regularity in Video Sequences——视频序列的时间规则性学习

Learning Temporal Regularity in Video Sequences CVPR2016 无监督视频异常事件检测早期工作 摘要 由于对“有意义”的定义不明确以及场景混乱,因此在较长的视频序列中感知有意义的活动是一个具有挑战性的问题。我们通过在非常有限的监督下使用多种来源学习常规运动模式的生成模型(称为规律性)来解决此问题。体来说,我们提出了两种基于自动编码器的方法,以

COD论文笔记 Adaptive Guidance Learning for Camouflaged Object Detection

论文的主要动机、现有方法的不足、拟解决的问题、主要贡献和创新点如下: 动机: 论文的核心动机是解决伪装目标检测(COD)中的挑战性任务。伪装目标检测旨在识别和分割那些在视觉上与周围环境高度相似的目标,这对于计算机视觉来说是非常困难的任务。尽管深度学习方法在该领域取得了一定进展,但现有方法仍面临有效分离目标和背景的难题,尤其是在伪装目标与背景特征高度相似的情况下。 现有方法的不足之处: 过于

One-Shot Imitation Learning

发表时间:NIPS2017 论文链接:https://readpaper.com/pdf-annotate/note?pdfId=4557560538297540609&noteId=2424799047081637376 作者单位:Berkeley AI Research Lab, Work done while at OpenAI Yan Duan†§ , Marcin Andrychow

Introduction to Deep Learning with PyTorch

1、Introduction to PyTorch, a Deep Learning Library 1.1、Importing PyTorch and related packages import torch# supports:## image data with torchvision## audio data with torchaudio## text data with t

《Learning To Count Everything》CVPR2021

摘要 论文提出了一种新的方法来解决视觉计数问题,即在给定类别中仅有少量标注实例的情况下,对任何类别的对象进行计数。将计数问题视为一个少样本回归任务,并提出了一种新颖的方法,该方法通过查询图像和查询图像中的少量示例对象来预测图像中所有感兴趣对象的存在密度图。此外,还提出了一种新颖的适应策略,使网络能够在测试时仅使用新类别中的少量示例对象来适应任何新的视觉类别。为了支持这一任务,作者还引入了一个包含

One-Shot Imitation Learning with Invariance Matching for Robotic Manipulation

发表时间:5 Jun 2024 论文链接:https://readpaper.com/pdf-annotate/note?pdfId=2408639872513958656&noteId=2408640378699078912 作者单位:Rutgers University Motivation:学习一个通用的policy,可以执行一组不同的操作任务,是机器人技术中一个有前途的新方向。然而,