本文主要是介绍人工智能发展背后的安迪比尔定理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
安迪是原英特尔公司 CEO 安迪•格鲁夫(Andy Grove),比尔就是微软的创始人比尔•盖茨。所谓的安迪比尔定理,就是cpu的性能增长被越来越庞大而消耗内存的软件消耗殆尽。该定理在如今十分火爆的人工智能领域依然发挥作用,只不过主角不再是cpu。因为现在的人工智能大多采用主流的深度神经网络技术,而该技术所需要的数据量是传统技术的几千几万倍,因为一些独有的特性,gpu(图形处理器,即显卡)比起传统的cpu在处理大数据方面有极大的优势,因此成为了人工智能的选择。
因此安迪比尔定理有了新的定义:gpu的性能增长被爆炸性增长的大数据消耗殆尽。
随着移动互联网的不断发展,数据量呈指数级上涨。
数据增长趋势
正因大数据的不断增长,硬件也被迫不断更新换代。
显卡天梯图
然而无论买了多新的显卡,组建了多昂贵的工作站,在庞大的数据量面前依然有一种力不从心的感觉。硬件的发展速度远不及数据增长的速度,相较之下甚至可以说,硬件性能是有限的,但数据是无限的。gpu的性能增长转眼间就被被爆炸性增长的大数据消耗殆尽。
在人工智能领域,安迪比尔定理仍将长时间发挥作用。
这篇关于人工智能发展背后的安迪比尔定理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!