Brian2学习笔记三 Introduction to Brian part 3 :Simulations

2023-10-11 14:40

本文主要是介绍Brian2学习笔记三 Introduction to Brian part 3 :Simulations,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Brian2学习笔记三 Introduction to Brian part 3 :Simulations

  • 1. 前言
  • 2、正文
    • 1、多次运行(Multiple runs)
    • 2、在运行期间改变一些内容(Changing things during a run)
    • 3、添加输入(Adding input)
  • 3、总结

1. 前言

推荐几个CSDN上不错的类似教程:
1、链接: https://blog.csdn.net/u013751642/article/details/80947005.
2、链接: https://blog.csdn.net/lemonade_117/article/details/81156087.
3、链接: https://blog.csdn.net/xiaoqu001/article/details/80422546#_Tutorial_84.

本文是根据Brian2官网提供的英文教程进行翻译整理总结的。
Brian2的官方安装教程链接:
链接: https://brian2.readthedocs.io/en/stable/introduction/install.html.
官方文档链接及Jupyter notebook学习资料:
链接: https://brian2.readthedocs.io/en/stable/resources/tutorials/3-intro-to-brian-simulations.html.
(注意:本文所有代码运行环境为Anaconda 的 Spyder(python 3.7), 注意运行代码首先要通过如下代码来导入 Brian2的包)
在这里插入图片描述
因为前段时间一直在改论文,还有中间各种事情,导致这篇学习笔记一直推到了现在,还是要尽快学完的,话不多说,接下来就进入正文部分。

2、正文

如果你还没有读过第一部分神经元和第二部分突触那就先去读吧,然后再来看这篇学习内容。

这一部分的教程是关于在研究问题中出现的稍微复杂的任务,而不是我们目前看到的简单的示例。所以这里包含了输入传感器数据, 模拟实验环境等等。

1、多次运行(Multiple runs)

首先,从一个非常常见的任务开始 : 使用某个参数的变化来进行多次模拟运行。让我们从一些非常简单的任务开始,一个由泊松脉冲神经元驱动的IF神经元的放电速率如何随着神经元膜的时间常数的变化而变化?

from brian2 import* 
# remember, this is here for running separate simulations in the same notebook
start_scope() 
# Parameters
num_inputs = 100
input_rate = 10*Hz
weight = 0.1
# Range of time constants
tau_range = linspace(1, 10, 30)*ms
# Use this list to store output rates
output_rates = []
# Iterate over range of time constants
for tau in tau_range:# Construct the network each timeP = PoissonGroup(num_inputs, rates=input_rate)eqs = '''dv/dt = -v/tau : 1'''G = NeuronGroup(1, eqs, threshold='v>1', reset='v=0', method='exact')S = Synapses(P, G, on_pre='v += weight')S.connect()M = SpikeMonitor(G)# Run it and store the output firing rate in the listrun(1*second)output_rates.append(M.num_spikes/second)
# And plot it
plot(tau_range/ms, output_rates)
xlabel(r'$\tau$ (ms)')
ylabel('Firing rate (sp/s)')

在这里插入图片描述
如果你在运行上述代码,你会发现运行速度有点慢。这是因为对于每个循环,都需要重新创建对象。我们可以通过只建立一次网络来改善这一点。我们在循环之前先存储网络状态的副本,并在每次迭代开始时恢复它。

from brian2 import* 
start_scope() 
# Parameters
num_inputs = 100
input_rate = 10*Hz
weight = 0.1
# Range of time constants
tau_range = linspace(1, 10, 30)*ms  #  30 points between 1 and 10
# Use this list to store output rates
output_rates = []
# Construct the network just once
P = PoissonGroup(num_inputs, rates=input_rate)
eqs = '''
dv/dt = -v/tau : 1
'''
G = NeuronGroup(1, eqs, threshold='v>1', reset='v=0', method='exact')
S = Synapses(P, G, on_pre='v += weight')
S.connect()
M = SpikeMonitor(G)  
# Store the current state of the network
store()  
for tau in tau_range:# Restore the original state of the networkrestore()# Run it with the new value of taurun(1*second)output_rates.append(M.num_spikes/second)
# And plot it
plot(tau_range/ms, output_rates)
xlabel(r'$\tau$ (ms)')
ylabel('Firing rate (sp/s)')

在这里插入图片描述
这是一个非常简单的使用存储(store)和恢复(restore)的例子,但是可以在更复杂的情况下使用它。比如,您可能希望运行一个长时间的训练,然后进行多次的测试运行。最简单的方法就是只需在长时间的训练结束之后放置一个存储,并在每次测试运行之前进行恢复。

可以看出输出曲线非常的嘈杂,并不像我们期望的那样单调递增。实际上,这些噪声来自于我们每次重新运行泊松神经元组。如果我们只想看到时间常数的影响,我们可以确保神经元的每次峰值都是相同的(尽管请注意,实际上您应该多次运行并取平均值)。为了方便,我们只运行一次泊松神经元组,然后记录它的峰值,最后再创建一个新的SpikeGeneratorGroup,来记录每次输出的峰值。

from brian2 import *
start_scope() 
num_inputs = 100
input_rate = 10*Hz
weight = 0.1
tau_range = linspace(1, 10, 30)*ms
output_rates = []
# Construct the Poisson spikes just once
P = PoissonGroup(num_inputs, rates=input_rate)
MP = SpikeMonitor(P)
# We use a Network object because later on we don't
# want to include these objects
net = Network(P, MP)
net.run(1*second)
# And keep a copy of those spikes
spikes_i = MP.i
spikes_t = MP.t
# Now construct the network that we run each time
# SpikeGeneratorGroup gets the spikes that we created before
SGG = SpikeGeneratorGroup(num_inputs, spikes_i, spikes_t)
eqs = '''
dv/dt = -v/tau : 1
'''
G = NeuronGroup(1, eqs, threshold='v>1', reset='v=0', method='exact')
S = Synapses(SGG, G, on_pre='v += weight')
S.connect()
M = SpikeMonitor(G)
# Store the current state of the network
net = Network(SGG, G, S, M)
net.store()
for tau in tau_range:# Restore the original state of the networknet.restore()# Run it with the new value of taunet.run(1*second)output_rates.append(M.num_spikes/second)
plot(tau_range/ms, output_rates)
xlabel(r'$\tau$ (ms)')
ylabel('Firing rate (sp/s)')

在这里插入图片描述
从上面的结果中可以看出,现在的噪声比之更小,是单并且单调递增的。因为每次输入的脉冲都是一样的,这意味着我们看到的是时间常数的作用,而不是随机的脉冲。

请注意,在上面的代码中,我们创建了Network对象。因为在循环中,如果我们只是调用run,它会尝试模拟所有的对象,包括泊松神经元P,但是我们只想运行一次。所以我们使用Network来明确指定我们想要包含的对象。

到目前为止,我们用到的技术只是概念上最简单的多次进行的方法,但它们并不总是最有效的。由于上面的模型中只有一个输出神经元,所以我们可以简单的复制输出神经元并将时间常数设为这个神经元组的一个参数

from brian2 import *
start_scope() 
num_inputs = 100
input_rate = 10*Hz
weight = 0.1
tau_range = linspace(1, 10, 30)*ms
num_tau = len(tau_range)
P = PoissonGroup(num_inputs, rates=input_rate)
# We make tau a parameter of the group
eqs = '''
dv/dt = -v/tau : 1
tau : second
'''
# And we have num_tau output neurons, each with a different tau
G = NeuronGroup(num_tau, eqs, threshold='v>1', reset='v=0', method='exact')
G.tau = tau_range
S = Synapses(P, G, on_pre='v += weight')
S.connect()
M = SpikeMonitor(G)
# Now we can just run once with no loop
run(1*second)
output_rates = M.count/second # firing rate is count/duration
plot(tau_range/ms, output_rates)
xlabel(r'$\tau$ (ms)')
ylabel('Firing rate (sp/s)')

在这里插入图片描述
可以看出,这次程序运行的速度快了很多。虽然在概念上更加复杂了,但是如果可以实现的话,它会更加高效。
接下来,我们看一下interspike之间的间隔时间的均值和标准差与时间常数之间的关系。

from brian2 import *
start_scope()
num_inputs = 100
input_rate = 10*Hz
weight = 0.1
tau_range = linspace(1, 10, 30)*ms
num_tau = len(tau_range)
P = PoissonGroup(num_inputs, rates=input_rate)
# We make tau a parameter of the group
eqs = '''
dv/dt = -v/tau : 1
tau 

这篇关于Brian2学习笔记三 Introduction to Brian part 3 :Simulations的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/188762

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件