本文主要是介绍人工智能的天花板和认知智能时代的来临,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
摘要:5月29日,Science刊登了一篇标题为“人工智能某些领域的核心进展一直停滞不前”的文章,在文章里,作者Matthew Hutson提到:一些多年之前的“老算法”如果经过微调,其性能足以匹敌当前的SOTA(编者注:得分最高的算法)。
所有的分析结果主要有两种:1、研究员声称的核心创新只是对原算法的微改进;2、新技术与多年前的旧算法在性能上相差不大。
具体到技术层面,论文对比分析的AI建模方法包括:神经网络剪枝、神经网络推荐算法、深度度量学习、对抗性训练、语言模型。
他们通过对比81相关篇论文,并在对照条件下对数百个模型进行修剪后,明显发现神经网络剪枝这一领域并没有标准化的基准和指标。换句话说,当前最新论文发表的技术很难进行量化,所以,很难确定该领域在过去的三十年中取得了多少进展。
对当前排名靠前的几种推荐算法进行了系统分析,发现近几年顶会中提出的18种算法,只有7种能够合理的复现。还有另外6种,用相对简单的启发式方法就能够胜过。剩下的几种,虽然明显优于baselines,但是却打不过微调过的非神经网络线性排名方法。
研究员声称近十三年深度度量学习(deep metric learning) 领域的目前研究进展和十三年前的基线方法(Contrastive, Triplet) 比较并无实质提高。
研究员一共指出了现有文献中的三个缺陷:不公平的比较、通过测试集反馈进行训练、不合理的评价指标。
近期的很多研究都声称他们的对抗训练算法比投影梯度下降算法要好的多,但是经过研究发现,几乎所有最近的算法改进在对抗性训练上的性能改进都可以通过简单地使用“提前停止”来达到。(编者注:所谓“提前停止”,即不进行那么多的训练,换句话说,人们用了各种办法想去解决问题,实际上少训练一些就解决了。)
作者通过大规模的自动黑箱超参数调优,重新评估了几种流行的体系结构和正则化方法,得出的一个结论是:标准的LSTM体系结构在适当的正则化后,其性能表现优于“近期”的模型。(编者注:老办法还是最好的。)
点评:这样的事实说明了几个问题:
1、业界的浮燥,只是为了达到一个好看的分数,有一篇看起好像很厉害的论文,根本不管其算法在实际应用中是否有效,因为文中所说的很多问题,离开特定的数据,放到实际应用中去检验,立马就能现出原形。
2、总是去追捧那些看上去高大上、深奥、复杂的方法,总觉得只有这样的方法,用了很多的数学公式、方程,才称得上是高水平的研究和成果。我们忘了初心,那就是用尽量简单的方法去解决复杂问题,因此会闹出“提前停止”这种笑话,做了一大堆复杂的事情,结果还不如“少做一点”。不由得让人又想起那个段子,要花上百万设计出机械手去抓取生产线上的空香皂盒,结果用一台风扇放在生产线旁一吹就解决了。是时候仔细想想了,我们大脑真的是用那些复杂的数学方程在解决问题吗?
3、人工智能、机器学习、深度学习真的是顶到天花板了,在原有基础上小修小补已经解决不了问题,把测试分数提高1%、2%实在是没有什么意义了。现在需要的是革命性的突破,需要一种全新的、与深度学习具有本质不同的方法。所谓本质不同,就是深度学习不管多深奥、测试分数多高,都不能解决机器的认知问题,即机器无法知道大千世界及其各种事物的意义,不知道面包可以吃,人要生存必须吃东西,面包可以让人活下去……没有这样的认知,机器永远不可能有高水平的智能。而新的方法,必须在机器认知上向前迈进一步,因此新一代智能,认知智能体系正在到来。全新的智能体系正在到来。下面是认知智能相关体系介绍:
认知智能介绍
认知智能是计算机科学的一个分支科学,是智能科学发展的高级阶段,它以人类认知体系为基础,以模仿人类核心能力为目标,以信息的理解、存储、应用为研究方向,以感知信息的深度理解和自然语言信息的深度理解为突破口,以跨学科理论体系为指导&#
这篇关于人工智能的天花板和认知智能时代的来临的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!