霍金、马斯克携手力推23条原则,告诫AI发展底线

2023-10-31 03:31

本文主要是介绍霍金、马斯克携手力推23条原则,告诫AI发展底线,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

“一个好的未来是什么样子?” 特斯拉首席执行官伊隆·马斯克(Elon Musk)在加利福尼亚州阿西洛马的Beneficial AI会议上发言。 “我们正走向超级智能,亦或是人类文明的结束。”

全球2000多人,包括844名人工智能和机器人领域的专家联合签署了23条AI发展原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。

宇宙学家斯蒂芬·霍金和特斯拉首席执行官埃伦·马斯克本周公开大力支持了一系列原则,用以确保拥有自主思考能力的机器保持安全发展,并符合人类权益行事。

机器正逐年变得更加智能,研究人员相信他们在未来几十年内可以拥有人类智能水平。 一旦他们达到这个程度,他们就可以开始改善自己,并创造其他智能,甚至更强大的AI,牛津哲学家尼克·博斯特罗姆和其他几个该领域的专家认为,应当称其为超级智能。

2014年,马斯克警告说,人工智能有可能“比核武器更危险”,而霍金在2014年12月说,人工智能可能会终结人类。 但它也是双刃剑。 AI也可以帮助治愈癌症及减缓全球变暖。

2017年1月初举行的“Beneficial  AI”会议为基础上建立起来的“阿西洛马人工智能原则”,名称来自此次会议的地点 –美国加州的阿西洛马(Asilomar)市,旨在确保AI为人类利益服务。

本次会议参加者是业界最富盛名的领袖,如DeepMind首席执行官 Demis Hassabis和Facebook AI 负责人Yann LeCun等。全球2000多人,包括844名人工智能和机器人领域的专家已联合签署该原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。完整名单可以见futureoflife.org/。

这一系列原则目前共23项,分为三大类:

1、科研问题

AI研究的目标应该是“有益的智能”。 它应该防止AI系统被黑客入侵。 它还应该解决“维护人类的资源和理想”。法律应该“跟上AI的步伐”,应该考虑人工智能“价值观”的问题。 此外,应该努力使研究人员和法律/政策制定者合作,并且应该“在AI的研究人员和开发人员之间培养整体的信任和尊重文化。

2、伦理和价值观

应根据原则以一种安全和透明的方式开发AI。 自主系统应必须可以解释它的行为。 创建AI系统的人必须对这些系统的使用方式承担责任。 自主系统的设计应反映人类的价值观。 人们应该有机会控制这些系统共享和使用数据的方式。AI应该尽可能使更多多的人受益,并应该为人类做出贡献,而不是仅仅得益于某些组织或个人。有的国家在竞争建立智能的自主武器 ,这是很大的潜在危害,应该主动积极的避免。

3、长期问题

我们不知道AI会有什么能力,应该计划“灾难性或风险”。

霍金、马斯克携手力推23条原则,告诫AI发展底线

Beneficial AI会议上的一个小组讨论会,包括埃隆·马斯克(最左边)和DeepMind的CEO(手持麦克风)

 “人工智能已经为世界各地的人们提供了日常使用的有益工具,”生命的未来 (Future of Life)网站上声明,“它的持续发展,须以后文原则为指导,在未来几十年甚至几个世纪,为帮助人类更加强大提供很多惊人的机会。”

会议上,马斯克坐在Hassabis、Bostrom、Tallinn和其他AI领域领导人组成的专家组中。 他们每个人都轮流回答他们所认为的超级智能,Bostrom在一篇学术论文中把它定义为“一种比每个领域最优秀的人类智能还要优秀的智能,这包括科学创造力、一般智力和社会技能。

当小组被问到超级智能是否可能,每个人都表示了十分的肯定,除了马斯克,当他说“不”的时候应该也是在开玩笑。可见,这些大佬都认为超级智能的发生是迟早的事情。有趣的是,当小组被问到是否期待超级智能出现时,回答开始出现矛盾了,有四个人思虑再三觉得“这很难说”,而马斯克说,这“取决于它到底是什么类型的智能了。” 

“阿西洛马人工智能原则”是开发安全AI的重要指南,它们得到了AI社区和广大从业者的广泛支持。路易斯维尔大学网络安全实验室主任Roman Yampolskiy说:“从签署名单数量可以看出,对这些原则的巨大支持为人工智能安全这个年轻的领域提供了可信度,但它仍然需要面对众多对AI风险的否认者,他们仍旧拒绝相信设计不当或恶意的AI /超级智能可能给人类带来巨大风险”。

| 点击视频,观看这次科技大佬之间生动的圆桌讨论

霍金、马斯克携手力推23条原则,告诫AI发展底线

在电影“她(Her)”中,人类爱上了人工智能。

阿西洛马人工智能23原则原文:

科研问题

1)研究目标:人工智能研究的目标不是为了创造不受指挥的智能,而是有益的智能。

2)研究经费:对人工智能进行投资的同时,要保证有经费用于研究如何有益地使用人工智能,研究包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:

如何使未来的人工智能系统变得高度稳健,即系统会执行我们所想的而不会发生故障或被入侵?

如何通过自动化提升我们的繁荣程度,同时保持人们的资源和意志?

如何升级我们的法制体系使其更公平高效,能够跟得上人工智能的发展速度,并且能控制人工智能带来的风险?

人工智能该与什么样的价值体系保持一致?它该有怎样的法律和伦理地位?

3)科学与政策的联系:在人工智能研究员和政策制定者之间应该要有富有建设性的和健康的交流。

4)科研文化:在人工智能研究员和开发者中应该要培养起一种以合作、信任与透明为基础的文化。

5)  避免不必要的竞争:人工智能开发团队之间应该积极合作,避免有人钻空子导致安全标准被削弱。

伦理和价值

6)安全性:人工智能系统在它们整个的运转周期内应该是安全可靠的,并且能在可应用的和可行的地方被验证。

7)失败透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。

8)审判透明性:任何自动系统参与的司法决策都应提供令人满意的解释,可被有能力的人类监管机构审核。

9)负责:高级人工智能系统的设计者和建造者,在道德影响上,是人工智能使用、误用和动作的利益相关者,并有责任和机会去塑造那些影响。

10)价值观一致:高度自主的人工智能系统应该被设计,确保它们的目标和行为在整个运行过程里与人类的价值观相一致。

11)人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。

12)个人隐私:人们应该拥有权力去访问、管理和控制他们产生的数据,考虑到人工智能系统有分析和使用那些数据的能力。

13)自由和隐私:人工智能在个人数据上的应用必须不能不当地剥夺人们真实的或认为的自由。

14)分享利益:人工智能科技应该惠及并赋权最大可能的多数人。

15)共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。

16)人类控制:人类应该来选择如何和是否委派人工智能系统去完成人类选择的目标。

17)非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序。

,而不是颠覆。

18)人工智能装备竞赛:致命的自动化武器的装备竞赛应该被禁止。

更长期的问题

19)能力警惕:我们应该避免关于未来人工智能能力上限的假设,但这一点还没有共识。

20)重要性:高级人工智能能够代表地球生命历史的一个重大变化,我们应该用与之相称的警惕和资源来管理。

21)风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须能够被相应的努力所管理和减轻。

22)递归的自我提升:人工智能系统被设计成能够以一种可以快速提升质量和数量的方式进行自我升级或自我替代,这种方式必须受制于严格的安全和控制标准。

23)公共利益:超级智能的开发是为了服务广泛认可的伦理理想,并且是为了全人类的利益而不是一个国家和组织的利益。

参考素材:businessinsider.com/、techrepublic.com

本文作者:大数据文摘

本文转自雷锋网禁止二次转载,原文链接

这篇关于霍金、马斯克携手力推23条原则,告诫AI发展底线的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/312515

相关文章

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

Spring AI ectorStore的使用流程

《SpringAIectorStore的使用流程》SpringAI中的VectorStore是一种用于存储和检索高维向量数据的数据库或存储解决方案,它在AI应用中发挥着至关重要的作用,本文给大家介... 目录一、VectorStore的基本概念二、VectorStore的核心接口三、VectorStore的

Spring AI集成DeepSeek三步搞定Java智能应用的详细过程

《SpringAI集成DeepSeek三步搞定Java智能应用的详细过程》本文介绍了如何使用SpringAI集成DeepSeek,一个国内顶尖的多模态大模型,SpringAI提供了一套统一的接口,简... 目录DeepSeek 介绍Spring AI 是什么?Spring AI 的主要功能包括1、环境准备2

Spring AI集成DeepSeek实现流式输出的操作方法

《SpringAI集成DeepSeek实现流式输出的操作方法》本文介绍了如何在SpringBoot中使用Sse(Server-SentEvents)技术实现流式输出,后端使用SpringMVC中的S... 目录一、后端代码二、前端代码三、运行项目小天有话说题外话参考资料前面一篇文章我们实现了《Spring

Spring AI与DeepSeek实战一之快速打造智能对话应用

《SpringAI与DeepSeek实战一之快速打造智能对话应用》本文详细介绍了如何通过SpringAI框架集成DeepSeek大模型,实现普通对话和流式对话功能,步骤包括申请API-KEY、项目搭... 目录一、概述二、申请DeepSeek的API-KEY三、项目搭建3.1. 开发环境要求3.2. mav

C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)

《C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)》本文主要介绍了C#集成DeepSeek模型实现AI私有化的方法,包括搭建基础环境,如安装Ollama和下载DeepS... 目录前言搭建基础环境1、安装 Ollama2、下载 DeepSeek R1 模型客户端 ChatBo

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

SpringBoot整合DeepSeek实现AI对话功能

《SpringBoot整合DeepSeek实现AI对话功能》本文介绍了如何在SpringBoot项目中整合DeepSeekAPI和本地私有化部署DeepSeekR1模型,通过SpringAI框架简化了... 目录Spring AI版本依赖整合DeepSeek API key整合本地化部署的DeepSeek