效率达CPU一万倍、内含800万神经元:英特尔发布神经形态芯片超算

本文主要是介绍效率达CPU一万倍、内含800万神经元:英特尔发布神经形态芯片超算,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

效率达CPU一万倍、内含800万神经元:英特尔发布神经形态芯片超算

人类大脑由 860 亿个互相连接的神经元组成,英特尔最近推出的类脑芯片系统 Pohoiki Beach 向「模拟大脑」这一目标前进了一大步,这是一个拥有 800 万人工神经元的计算机系统。据英特尔介绍,其组成芯片在 AI 任务中的速度是传统 CPU 的一千倍,能耗效率是一万倍。

英特尔还表示,类脑芯片越扩展效率越高,这是传统架构无法企及的。

神经形态学工程,也称神经形态计算,通常是指使用电路系统来模拟生物的神经形态学结构,或许是下一代计算机的发展方向。此前,来自 MIT、普渡大学、斯坦福、IBM、惠普等大学和公司的先驱者们都曾提出自己的全栈系统,但没有一家能像今天的英特尔这样如此接近神经形态学研究的终极目标——后者推出了一台超越前人千倍算力的超级计算机。

它就是刚刚在底特律美国国防部高级研究计划局(DARPA)2019 电子复兴峰会上出现的「Pohoiki Beach」系统,这是一款能够模拟 800 万神经元的 64 芯片计算机。英特尔实验室总监 Rich Uhlig 表示,Pohoiki Beach 已经免费向 60 个研究伙伴提供。这些机构正在使用新类型的芯片挑战最尖端领域的研究,其中包括可扩展 AI 算法,如冗余编码和路径规划。

「我们对 Loihi 扩展后构建更强大神经形态系统的结果印象深刻。现在 Pohoiki Beach 已经提供给超过 60 个合作伙伴使用,他们将使用这种专用系统解决复杂、计算密集型问题。」Uhlig 表示。

Pohoiki Beach 包含 64 个 128 核心,14 纳米制程的 Loihi 神经形态芯片,这些芯片首次出现在世人面前是在 2017 年 10 月的 Neuro Inspired Computational Elements(NICE)研讨会上。它们具有 60 毫米裸片尺寸,每块包含 20 亿个晶体管、13 万个人工神经元和 1.3 亿个突触,此外还附有三个管理 Lakemont 核心用于任务编排。特别的是,Loihi 拥有可编程微码学习引擎,可在片上训练异步脉冲神经网络(SNN)——这是一种将时间结合进模型操作的特殊 AI 模型,可以让模型的不同组件不会同时被输入处理。SNN 被认为可以高效实现自适应修改、基于事件驱动和细粒度平行计算。

Pohoiki Beach 由 64 个较小的 Loihi 芯片组成,可模拟约 830 万个神经元。这个数字和一些小型啮齿动物的大脑差不多。

在硬件之上,英特尔还提供了 Loihi 开发工具链:包括 Loihi Python API、编译器和一组用于在 Loihi 上构建和执行 SNN 的执行库。这些工具提供了自定义构建神经、突触计算图的方法,可调整诸如衰减时间、突触权重、脉冲阈值等变量,也可通过自定义学习规则注入外部脉冲来模拟计算图。

英特尔称,与传统处理器相比,Loihi 处理信息的速度要快上 1000 倍,而效率则要高上 1 万倍。在处理某些类型的优化问题上,神经形态处理器的速度和能效要比普通 CPU 强三个数量级以上。此外,英特尔还表示 Loihi 在扩展 50 倍时,在保证算力的情形下仅需增加 30% 的能耗——而常规架构的芯片需要 50 倍能耗。在进行同步定位和映射等操作时,新的芯片比常规 CPU 节省 100 倍能耗。

与人脑中的神经元类似,Loihi 拥有数字轴突用于向临近神经元发送电信号,也有树突用于接收信号,在两者之间还有用于连接的突触。英特尔表示,基于这种芯片的系统已经被用于模拟皮肤的触觉感应、控制假腿和玩桌上足球等任务。

因为效率颇高,Pohoiki Beach 和 Loihi 有望成为人工智能算法发展的新动力。英特尔称,新形态的芯片可以在图像识别、自动驾驶和自动化机器人等方面带来巨大技术提升。

「使用 Loihi,我们可以在运行实时深度学习基准测试时比 GPU 节省 109 倍的能耗,而与专用的物联网推理硬件相比,神经形态芯片也节约了 5 倍能耗,」Applied Brain Research 联合首席执行官、滑铁卢大学教授 Chris Eliasmith 表示,他们的团队正在使用 Loihi 进行研究。

英特尔表示,今年晚些时候,它将推出一个更大的 Loihi 系统——Pohoki Springs,该系统将拥有超过 1 亿神经元、1 万亿个突触,预计包含 768 颗芯片、1.5 万亿个晶体管。下一代神经形态系统将提供「前所未有的」性能和效率。

此外,Santa Clara 公司将继续通过英特尔神经形态研究社区(Intel Neuromorphic Research Community)为用户提供访问其 Loihi 云系统和 Kapoho Bay(基于 Loihi 的 USB 形状因子系统)的权限。

参考内容:

https://venturebeat.com/2019/07/15/intels-pohoiki-beach-is-a-neuromorphic-computer-capable-of-simulating-8-million-neurons/

https://www.tomshardware.com/news/intel-neuromorphic-loihi-ai-nuerons,39903.html

https://www.pcmag.com/news/369532/intels-latest-chip-mimics-the-way-your-brain-works

这篇关于效率达CPU一万倍、内含800万神经元:英特尔发布神经形态芯片超算的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/670713

相关文章

高效+灵活,万博智云全球发布AWS无代理跨云容灾方案!

摘要 近日,万博智云推出了基于AWS的无代理跨云容灾解决方案,并与拉丁美洲,中东,亚洲的合作伙伴面向全球开展了联合发布。这一方案以AWS应用环境为基础,将HyperBDR平台的高效、灵活和成本效益优势与无代理功能相结合,为全球企业带来实现了更便捷、经济的数据保护。 一、全球联合发布 9月2日,万博智云CEO Michael Wong在线上平台发布AWS无代理跨云容灾解决方案的阐述视频,介绍了

Vue3项目开发——新闻发布管理系统(六)

文章目录 八、首页设计开发1、页面设计2、登录访问拦截实现3、用户基本信息显示①封装用户基本信息获取接口②用户基本信息存储③用户基本信息调用④用户基本信息动态渲染 4、退出功能实现①注册点击事件②添加退出功能③数据清理 5、代码下载 八、首页设计开发 登录成功后,系统就进入了首页。接下来,也就进行首页的开发了。 1、页面设计 系统页面主要分为三部分,左侧为系统的菜单栏,右侧

maven发布项目到私服-snapshot快照库和release发布库的区别和作用及maven常用命令

maven发布项目到私服-snapshot快照库和release发布库的区别和作用及maven常用命令 在日常的工作中由于各种原因,会出现这样一种情况,某些项目并没有打包至mvnrepository。如果采用原始直接打包放到lib目录的方式进行处理,便对项目的管理带来一些不必要的麻烦。例如版本升级后需要重新打包并,替换原有jar包等等一些额外的工作量和麻烦。为了避免这些不必要的麻烦,通常我们

禅道Docker安装包发布

禅道Docker安装包发布 大家好, 禅道Docker安装包发布。 一、下载地址 禅道开源版:   /dl/zentao/docker/docker_zentao.zip  备用下载地址:https://download.csdn.net/download/u013490585/16271485 数据库用户名: root,默认密码: 123456。运行时,可以设置 MYSQL_ROOT_P

Java程序到CPU上执行 的步骤

相信很多的小伙伴在最初学习编程的时候会容易产生一个疑惑❓,那就是编写的Java代码究竟是怎么一步一步到CPU上去执行的呢?CPU又是如何执行的呢?今天跟随小编的脚步去化解开这个疑惑❓。 在学习这个过程之前,我们需要先讲解一些与本内容相关的知识点 指令 指令是指导CPU运行的命令,主要由操作码+被操作数组成。 其中操作码用来表示要做什么动作,被操作数是本条指令要操作的数据,可能是内存地址,也

C++编程:ZeroMQ进程间(订阅-发布)通信配置优化

文章目录 0. 概述1. 发布者同步发送(pub)与订阅者异步接收(sub)示例代码可能的副作用: 2. 适度增加缓存和队列示例代码副作用: 3. 动态的IPC通道管理示例代码副作用: 4. 接收消息的超时设置示例代码副作用: 5. 增加I/O线程数量示例代码副作用: 6. 异步消息发送(使用`dontwait`标志)示例代码副作用: 7. 其他可以考虑的优化项7.1 立即发送(ZMQ_IM

stl的sort和手写快排的运行效率哪个比较高?

STL的sort必然要比你自己写的快排要快,因为你自己手写一个这么复杂的sort,那就太闲了。STL的sort是尽量让复杂度维持在O(N log N)的,因此就有了各种的Hybrid sort algorithm。 题主你提到的先quicksort到一定深度之后就转为heapsort,这种是introsort。 每种STL实现使用的算法各有不同,GNU Standard C++ Lib

Hbase Filter+Scan 查询效率优化

Hbase Filter+Scan 查询效率问题 众所周知,Hbase利用filter过滤器查询时候会进行全表扫描,查询效率低下,如果没有二级索引,在项目中很多情况需要利用filter,下面针对这种情况尝试了几种优化的方案,仅供参考,欢迎交流。 根据业务要求,作者需要根据时间范围搜索所需要的数据,所以作者设计的rowKey是以时间戳为起始字符串的。 正确尝试: 1.scan 设置 开始行和结

win10不用anaconda安装tensorflow-cpu并导入pycharm

记录一下防止忘了 一、前提:已经安装了python3.6.4,想用tensorflow的包 二、在pycharm中File-Settings-Project Interpreter点“+”号导入很慢,所以直接在cmd中使用 pip install -i https://mirrors.aliyun.com/pypi/simple tensorflow-cpu下载好,默认下载的tensorflow

定位cpu占用过高的线程和对应的方法

如何定位cpu占用过高的线程和对应的方法? 主要是通过线程id找到对应的方法。 1 查询某个用户cpu占用最高的进程号 top -u 用户名 2 查询这个进程中占用cpu最高的线程号 top –p 进程号-H    3 查询到进程id后把进程相关的代码打印到jstack文件 jstack -l pid > jstack.txt 4 在jstack文件中通过16进制的线程id搜索到