本文主要是介绍类脑计算,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
人工智能之类脑计算
人工智能现状
1642年帕斯卡发明用于计算加减法的机械计算机,1842年英国巴贝奇发明分析机,1937年第一台电子计算机贝瑞计算机问世,1946年世界上第一台“可编程”计算机ENIAC的诞生,1956年美国达特茅斯会中人工智能正式出现在了人们的视野,再到后来的Unix操作系统的诞生、编程语言的出现,网络的问世、浏览器、比特币、甚至AlphaGo击败全球顶尖围棋高手。自电子计算机诞生以来,纵观这80多年的历史,计算机的发展凝聚着无数的智慧和梦想。
人工智能对于最终实现
现如今我们谈的最多的就是人工智能,而其最终目标是实现通用人工智能,虽然有人对通用人工智能不怎么看好,认为通用人工智能没有头绪,是遥不可及的,但是在我看来只要脑科学有足够的积累,就可以将各种零散的发现系统地整合起来,最终实现能扩展、延伸具有大脑处理信息功能的系统,甚至超越人类大脑处理能力,即使得某个计算机个体在处理内外部的输入信息、对输出信号进行识别,然后做出相应的反应或输出,进而处理非标准化信息的能力能适应自然界。
通用人工智能
在通向通用人工智能的道路上,我更倾向于类脑计算是最接近山顶的那条小路。在我的了解中,类脑计算的主要研究趋势有三个方面:首先就是基础的生物脑中的神经元,突触及记忆,注意等机制的建模;第二,基于生物机制建模的神经网络学习算法以及在模式识别等机器学习任务中的应用;最后,基于生物激励的算法和神经网络的硬件系统研究。但是现在对脑的认知机制研究还有很多的不足,生物脑的运转机制还没有完全解开,再加上计算机仿真工具和数学的理论分析任然不够完善,而且类脑计算还没有形成统一的理论框架,所以现如今还没办法取代深度学习等成熟的算法和工具。在2018年北京大学信息科学技术学院教授,计算机科学技术系主任黄铁军老师的报告指出,其团队以单个神经元之间的联结和相互作用为基础用计算机复现生物视神经传导的结构模型并拿去仿真,得到的响应完全和生物视觉对外界光刺激响应类似,之后黄老师的团队将模型整合到一个芯片上,同样也成功复现出了输入图像。这也意味着我们知道并理解神经元间的关系和功能。我所知道的类脑计算都不是用的传统的冯诺伊曼架构,因为忆阻器这一类似生物神经元的器件要想充当运算单元,也要存储信息,那么现有的冯诺伊曼架构却将运算和存储分离开。所以要想实现强人工神经网络就得放弃冯诺依曼架构,,才有可能使得脱离碳基生命的神经网络体系结构实现,则强人工智能的实现可期,现在也有人从混沌理论中契机想从其中找到了忆阻器的模型架构,但我找到了资料不多,理解也不深,就不多说了。
人工智能的
在实现强人工智能的道路上,我所知道的最大的拦路虎就是大名鼎鼎的哥德尔不完备定理。哥德尔不完备定理指出,任何相容的形式系统,只要蕴含皮亚诺算术公理,就可以在其中构造在体系中既不能证明也不能证伪的命题(即体系是不完备的),这个理论用在人工智能上,则指出有些道理可能是我们能够判别,但机器单纯用一阶公理性系统无法的道理。我们的大脑是一个极高阶的逻辑系统,因此可以兼容种类数字逻辑系统在其中运转。简单来是我们的大脑是一个无限阶的,而符号化的逻辑程序却是一阶的,而哥德尔不完备定理却告诉我们一阶的谓词逻辑却是不完备的,无法上探到无限阶,所以在哥德尔不完备定理看来,想通过创造符号运算系统完全理解人的思维是不可能实现。所以强人工智能的道路任重而道远。
这篇关于类脑计算的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!