一份2020年人工智能趋势清单

2024-06-21 09:08

本文主要是介绍一份2020年人工智能趋势清单,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

点击上方“AI公园”,关注公众号,选择加“星标“或“置顶”


作者:Roberto Sannazzaro

编译:ronghuaiyang

导读

2020 年已经来了,让我们对过去的一年做出一些思考,并对来年有所期待。

在这篇文章中,我想深入探讨人工智能的技术和非技术方面和趋势,讨论一些相对较新的趋势,比如从 AutoML 到人工智能的更清晰和伦理化的方面,这些方面正慢慢地影响着越来越多的公司和最终用户。

 2019简短回顾:

2019 年,英特尔、高通和英伟达等大型芯片制造商发布了专门设计的芯片,只用于执行基于人工智能的应用程序,主要是在计算机视觉、自然语言处理和语音识别领域。

Google 发布了 TensorFlow 2.0,扩展了对 Node.js 上 TensorFlow 的支持,与 iOS 集成,最终正式将其高级 API 改为 Keras,使其成为移动和 PWA 上的第一。

此外,BERT 模型演变成 DistilBERT 或 FastBert,计算机视觉算法水平能够执行的大多数消费者的任务,并具有很好的准确性。

像 DeepMind 或 OpenAI 这样的大公司进一步推动了强化学习的边界。

最后但并非最不重要的是,Keras 的创始人 Francois Chollet 发表了一篇论文,提出了一种新的人工智能模型基准测试方法。

对2020有什么期待?

Automated machine learning (AutoML):

有能力执行 ETL 任务,数据预处理,变形的 AutoML 最有可能在 2020 年变得更受欢迎。

AutoML 技术可以处理整个机器学习过程,像auto-sklearn这样的包可以自动进行模型选择、超参数优化和评分,而不同的云提供商已经提供了一个“自动驾驶仪”来替代它们的服务:Amazon Forecast 自动决定哪个算法最适合数据,而谷歌也提供了类似的服务,Cloud AutoML。

基本上所有东西都变成了REST API。

乍眼一看,这样似乎主要集中为不熟练 AI 的用户使用这些服务提供了一个很好的机会,同时也可以为高级用户服务:AutoML 模型可以作为基准,可以用来作为基线评估如果使用不同的技术来来开发,这样花费的时间是不是有意义。

AI之死:

你还记得这个吗?

可能不会。我还记得今年早些时候,这是一些智能手机及其 AI 摄像头的广告。一切都会结束的。多个消费者应用程序、汽车、家用电器现在都已经嵌入了使用某种人工智能的功能。我们(消费者)已经习惯了。“人工智能”这个时髦词将慢慢淡出人们的视线,而人工智能功能将更多的被赋予消费者。

联邦机器学习:

早在 2017 年,谷歌就引入了分布式学习的概念,这是一种使用分散数据对模型进行部分或全部训练的方法。

考虑在你的机器上训练一个基线模型,然后将模型交付给最终用户,后者在他的手机、笔记本电脑和平板电脑上可以访问模型的数据,用于调整和个性化。

让我们考虑一个涉及一些高度敏感数据处理的模型:提供该模型的公司可以访问一些经过脱敏的数据,这些数据是专门为它们准备的。

一旦基线模型满足了某些需求,就可以将模型交付给客户,客户最终将进一步训练模型,而不需要与外部参与者共享任何用户数据。

如前所述,TensorFlow 2.0 支持其他平台,如 iOS、Node.js 等,其中一个原因是可能使这成为可能,为公司提供一个多平台工具来构建、发布、训练和优化。此外,像 Docker 和 Kubernetes 这样的平台提供了扩展和管理一个相对复杂部署环境的的可能性,使得联邦机器学习成为可能。

另一个联邦学习的例子是: 你的手机在本地的个性化模型。 对许多用户的更新进行聚合B,形成对共享模型C的一致更改。

云寡头的终结:

云计算在 2019 年变得越来越流行,很多人从“我们永远不会和他们分享我们的数据”变成了“好吧,也许我们可以试试”。

这是某种由药片控制的冷却系统吗?

云提供商的规模、数量、客户和产品都在增加,市场开始从寡头垄断转向完全竞争市场,这意味着云提供商正在慢慢失去定价能力。今年市场已经可能被不同的云供应商瓜分了,2020 年将多重云等产品的市场了,云提供商将不仅取决于他们的定价计划,还包括他们要用我们如何使用他们的服务:这个供应商希望我使用更多还是更少的资源?他们是在影响我把所有东西都存储在云中,还是有不同的数据分配解决方案?

可解释的,负责任的,可推理的和有道德的AI:

2019 年,我们努力研究可复现 AI,和可解释 AI,这是一系列鼓励算法的可解释性和再现性的实践。这一趋势与机器学习(和深度学习)在许多不同领域和不同公司的应用方式不同。

模型不再是(也不应该是)黑箱,它们的结果中的每个决策都必须是可解释的。

这一趋势需要一个新的形象,能够理解可解释性和(人类)可解释性的边界,能够回答诸如“这符合我们的使命和价值观吗?”之类的问题。

此外,应用机器学习技术来解决可能排除或歧视某些用户群体的任务的公司必须关注他们对模型决策的法律和道德责任。

总结:

在揭示了这些趋势之后,我们可以做一些思考和考虑:

  • 人工智能正在被嵌入:为特定任务专门设计的小型硬件组件。

  • 人工智能变得(越来越)可迁移:多平台支持,标准化,再现性。

  • Francois Chollet 方法论的基准 AI 可能成为下一个机器智能的图灵测试,其论文第三章详细解释了这个框架。

—END—

英文原文:https://towardsdatascience.com/a-distilled-list-of-ai-trends-for-2020-e2fc83a9b092

请长按或扫描二维码关注本公众号

喜欢的话,请给我个好看吧

这篇关于一份2020年人工智能趋势清单的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1080795

相关文章

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

人工智能机器学习算法总结神经网络算法(前向及反向传播)

1.定义,意义和优缺点 定义: 神经网络算法是一种模仿人类大脑神经元之间连接方式的机器学习算法。通过多层神经元的组合和激活函数的非线性转换,神经网络能够学习数据的特征和模式,实现对复杂数据的建模和预测。(我们可以借助人类的神经元模型来更好的帮助我们理解该算法的本质,不过这里需要说明的是,虽然名字是神经网络,并且结构等等也是借鉴了神经网络,但其原型以及算法本质上还和生物层面的神经网络运行原理存在

人工智能做音乐

0 别人做的音乐demo https://yun.baidu.com/share/link?shareid=1799925478&uk=840708891 1 为什么人工智能能做音乐? 最下面蓝色的部分是你输入的音乐。 从上图可以看出,input是一个个的点,然后通过input来相互结合生成灰色的点,经过几层的连接之后,最后的Output就是新生成的音乐,也就是黄色的点。 把黄色的点

“人工智能+”带来新变化

以生成式人工智能(AIGC)为代表的新一代人工智能技术创新加速演进,相关商业化应用成果也不断涌现,行业应用范围不断拓展,深度赋能实体经济,为行业提质增效与实现减排提供助力。 自主航运初创公司OrcaAI于6月18日发布研究报告显示,通过在海上航行中部署人工智能(AI),全球商业航运业每年可减少碳排放4700万吨。报告指出,借助AI技术,船员将能够得到实时提醒,因近距离遭遇

中国341城市生态系统服务价值数据集(2000-2020年)

生态系统服务反映了人类直接或者间接从自然生态系统中获得的各种惠益,对支撑和维持人类生存和福祉起着重要基础作用。目前针对全国城市尺度的生态系统服务价值的长期评估还相对较少。我们在Xie等(2017)的静态生态系统服务当量因子表基础上,选取净初级生产力,降水量,生物迁移阻力,土壤侵蚀度和道路密度五个变量,对生态系统供给服务、调节服务、支持服务和文化服务共4大类和11小类的当量因子进行了时空调整,计算了

江西电信联合实在智能举办RPA数字员工培训班,培养“人工智能+”电信人才

近日,江西电信与实在智能合作的2024年数字员工开发应用培训班圆满闭幕。包括省公司及11个分公司的核心业务部门,超过40名学员积极报名参与此次培训,江西电信企业信息化部门总监徐建军出席活动并致辞,风控支撑室主任黄剑主持此次培训活动。 在培训会开幕仪式上,徐建军强调,科创是电信企业发展的核心动力,学习RPA技术是实现数字化转型的关键,他阐述了RPA在提高效率、降低成本和优化资源方面的价值,并鼓励学

【图像识别系统】昆虫识别Python+卷积神经网络算法+人工智能+深度学习+机器学习+TensorFlow+ResNet50

一、介绍 昆虫识别系统,使用Python作为主要开发语言。通过TensorFlow搭建ResNet50卷积神经网络算法(CNN)模型。通过对10种常见的昆虫图片数据集(‘蜜蜂’, ‘甲虫’, ‘蝴蝶’, ‘蝉’, ‘蜻蜓’, ‘蚱蜢’, ‘蛾’, ‘蝎子’, ‘蜗牛’, ‘蜘蛛’)进行训练,得到一个识别精度较高的H5格式模型文件,然后使用Django搭建Web网页端可视化操作界面,实现用户上传一

人工智能在数字病理切片虚拟染色以及染色标准化领域的研究进展|顶刊速递·24-06-23

小罗碎碎念 本期推文主题:人工智能在数字病理切片虚拟染色以及染色标准化领域的研究进展 这一期的推文是我发自内心觉得为数不多,特别宝贵的一篇推文,原因很简单——可参考的文献相对较少&方向非常具有研究意义&现在不卷。 数字病理方向的老师/同学应该清楚,不同中心提供的切片,染色方案是存在差异的,并且还存在各种质量问题,所以我们在数据预处理的时候,通常会先对切片的质量执行一遍筛选,然后再进行染

开发人员必掌握的Git常用命令备忘录清单

基础操作 1、创建ssh key,邮箱可以随便输入,不会做校验 ssh-keygen -t rsa -C "你的邮箱地址" 2、配置Git账号信息,你所有的Git操作记录,都会显示为你设置的昵称。 # 不添加`--global`表示在当前目录下的Git仓库设置,添加表示全局设置。git config --global user.name "你的Git提交昵称"# 邮箱可以随便输入,不会

1.1 从图灵机到GPT,人工智能经历了什么?——《带你自学大语言模型》系列

《带你自学大语言模型》系列部分目录及计划,完整版目录见: 带你自学大语言模型系列 —— 前言 第一部分 走进大语言模型(科普向) 第一章 走进大语言模型 1.1 从图灵机到GPT,人工智能经历了什么?1.2 如何让机器理解人类语言?(next, next)1.3 Transformer做对了什么?(next, next, next) 第二部分 构建大语言模型(技术向) 第二章 基础知识