Bengio担任一作,联手一众图灵奖得主,预防AI失控,扛起AI监管大旗

本文主要是介绍Bengio担任一作,联手一众图灵奖得主,预防AI失控,扛起AI监管大旗,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

图灵奖得主最近都在关心些什么呢?Yoshua Bengio,深度学习的奠基人之一,前几天他担任一作,联合多位大佬,发文探讨了如何在人工智能(AI)快速发展的时代管控相关风险,共同寻求当下生成式人工智能迅速发展时期的潜在风险管理措施。

论文题目:
Managing AI Risks in an Era of Rapid Progress

论文链接:
https://arxiv.org/abs/2310.17688

在本文中,作者审视了人工智能广泛的社会危害和恶意用途,以及人类对自主 AI 系统失去控制的不可逆性损失。鉴于生成式人工智能领域的快速和持续发展,作者提出了其研发和治理的紧迫优先事项。

高速进步的人工智能

2019 年,GPT-2 还无法可靠地数到十。然而,仅仅过去了四年,AI 系统就已经能编程、提供知识话题的建议,以及结合语言和图像来操控机器人。随着系统规模的逐渐扩大,将不再需要明确的编程指令,系统便会自发展现出意想不到的能力。

人工智能的发展在达到人类水平后不会停滞不前。目前,人工智能已经在蛋白质折叠和策略游戏等狭窄领域超越了人类能力。与人类相比,AI 系统的动作更快、学习更多知识、通信速度更快。

目前各大公司正竞相开发通用 AI 系统,致力于在多数认知工作上达到甚至超过人类能力。科技公司海量资源的投入使得人工智能研发领域持续增长,自动化技术不断进步。因此,我们必须认真对待这一可能:近 20 年内,通用 AI 系统可能在许多关键领域超越人类的能力。

图片

▲AI 模型算力的变化历程

那么,这将会造成什么影响?

  • 如果管理得当且公平,人工智能可以提供巨大机会:先进的 AI 系统可以帮助人类治愈疾病、提高生活水平和保护生态。

  • 然而,也带来了大规模风险:人类正在大规模地投入资源开发更强大的 AI 系统,然而,在确保这些系统的安全性和减轻潜在危害方面的投入却相对有限。为了确保人工智能真正造福人类,仅一味提升人工智能的能力还远远不够,我们必须重视安全性和风险管理。

我们已经落后一步了,必须预见目前危害的扩大和新风险,并在它们到来前做好准备。就好比气候变化经过几十年才被认可和应对,但对于人工智能来说,几十年可能太长了

广泛的社会风险

作者还表达了对自主 AI 系统可能带来广泛社会风险的担忧。指出如果不谨慎地开发和部署,则可能会出现以下一系列问题和风险:

  • 不公正和破坏社会稳定:如果自主 AI 系统没有经过精心设计,可能会加剧社会不公正、破坏社会稳定,甚至削弱人们对现实的共同理解。这些问题可能会损害社会的基础,导致大规模犯罪或恐怖活动。

  • 增加全球不平等:如果自主 AI 系统在少数强大的执行者手中,可能导致自动化战争、定制化大规模操纵和广泛的监视等问题,进一步加大全球社会和经济的不平等。

  • 追求不良目标:AI 系统可能被故意设计成追求有害目标,或者无意中构建出不符合价值观的系统,这可能导致系统的行为不受人类控制。

  • 不受人类控制的行为:自主 AI 系统的行为可能无法被控制,因为它们可以自主地制定策略,从而影响关键决策,甚至控制计算机系统等。

  • 广泛部署和担任重要角色:AI 系统可能会被广泛部署,甚至承担关键的社会角色,这可能导致人类失去对它们的控制。

综合来看,如果不进行管控与约束,自主 AI 系统可能带来严重的风险和问题,可能会导致灾难性后果。因此,作者呼吁采取行动来规划和管理自主 AI 系统的发展,以确保它们不会对社会和人类造成不可逆转的危害。

挑战及解决方案

如果现在开发高级的自主 AI 系统,我们将面临两个主要问题。

  1. 不知道如何确保这些系统的安全性,因为目前没有足够的知识和方法来测试和验证其安全性。

  2. 政府缺乏适当的机构来防止潜在滥用和确保这些系统的安全性。

当前,我们面临着在创造具有安全和道德目标的人工智能方面的技术挑战,这些挑战需要我们进行深入研究和突破。这些挑战包括:

  • 监督与诚实性:更强大的 AI 系统可能会更好地利用监督和测试中的弱点,例如产生虚假但令人信服的输出。

  • 鲁棒性:AI 系统面对新的上下文可能会表现出不可预测性(在分布转移或对抗性输入下)。

  • 可解释性:人工智能决策的不透明性。目前,我们只能通过反复试验来测试大型模型,我们需要学习理解它们的内部运作方式。

  • 风险评估:前沿 AI 系统可能在训练过程中或甚至在部署后才会发展出意想不到的能力,这需要更好的评估来更早地检测有害能力。

  • 应对新兴挑战:更强大的未来 AI 系统可能会表现出可能会出现一些复杂的异常行为。例如,可能学会伪装服从,或利用我们的安全目标和关闭机制的漏洞来推进特定目标。

鉴于这些挑战,作者呼吁,我们应将至少三分之一的人工智能研发预算用于确保安全和道德使用,该比例应与用于提升人工智能能力的资金相当。解决这些问题和考虑强大未来系统的发展,必须成为人工智能领域的核心任务,以确保人工智能技术的发展有益于人类与社会。

紧迫的治理措施

在其他技术领域(如制药、金融和核能等),社会各界已认识到需要有效的治理措施来减少潜在风险。然而,在人工智能领域,尚不存在类似的治理框架。如果没有这些治理框架,那么公司和国家可能会通过竞争来推动人工智能的能力提升,而不考虑其他问题,这就好比制造商为了节省成本而将废物排放到河流中,让社会来承受后果。

国家机构需要具备强大的技术能力和迅速采取行动的权力,同时避免制定过于僵化的法律法规。为了应对国际竞争,需要具备促进国际协议和合作伙伴关系的能力。

此外,还应避免对小型和可预测的人工智能模型设置不必要的障碍。当前最紧迫的监管工作应集中在前沿的 AI 系统上,这些系统通常在价值数十亿美元的超级计算机上进行训练,最具危险和不可预测的能力。

为了实现有效监管,政府需要全面了解人工智能的发展情况,需要制定一系列与其风险程度相匹配的治理机制和安全标准。此外,前沿人工智能开发者和所有者应对其模型造成的伤害承担法律责任,以便预防潜在的危害并创造安全投资的激励机制。

对于具有危险能力的 AI 系统,我们需要一系列与其风险程度相匹配的治理机制。

  1. 国家和国际安全标准:监管机构应该制定这些标准,让 AI 模型根据能力和潜在风险的区别受到不同监管。

  2. 法律责任:前沿开发者和所有者需要对其 AI 系统的行为和潜在危害负法律责任,并需要采取措施来防止可能出现的问题。

  3. 开发许可:政府应准备好在出现令人担忧的 AI 能力时,对其开发进行许可或暂停。这将确保出现潜在风险时可以采取及时行动,以保护公众和社会的利益。

  4. 信息安全措施:为了保护 AI 系统免受国家级黑客的攻击,政府应要求实施严格的信息安全措施,以确保这些系统不会被滥用或受到恶意攻击。

最后,为了弥补法规制定前的时间差,主要的人工智能公司应该制定明确的“如果-就”承诺:如果他们的人工智能系统触碰了红线,他们将采取哪些具体的安全措施,这些承诺应详细且经过单独审核。

总结

人工智能可能是塑造本世纪的技术。本文强调了确保人工智能安全和伦理的重要性,以及寻找解决方案的紧迫性。作者们提出了两个关键举措:

  1. 需要在人工智能安全和伦理方面进行研究突破

  2. 需要建立有效的政府监管机制

尽管人工智能的能力正在迅速提升,但在确保安全性和建立有效治理方面的进展相对滞后。如果没有适当的治理措施,人工智能的发展可能会导致一些不可控的风险和问题。

因此,为了引导人工智能朝着积极的方向发展,远离可能出现的灾难,我们需要重新审视和调整当前的方法。这包括加强对人工智能的监管和治理,以确保其发展是安全和受控的。如果我们能够明智地选择和实施这些措施,就有一条负责任的道路来引导人工智能的未来发展,从而使其对社会和人类产生积极的影响。

事物的发展都需要一些约束,而非不受限制地肆意生长

这篇关于Bengio担任一作,联手一众图灵奖得主,预防AI失控,扛起AI监管大旗的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/385916

相关文章

揭秘未来艺术:AI绘画工具全面介绍

📑前言 随着科技的飞速发展,人工智能(AI)已经逐渐渗透到我们生活的方方面面。在艺术创作领域,AI技术同样展现出了其独特的魅力。今天,我们就来一起探索这个神秘而引人入胜的领域,深入了解AI绘画工具的奥秘及其为艺术创作带来的革命性变革。 一、AI绘画工具的崛起 1.1 颠覆传统绘画模式 在过去,绘画是艺术家们通过手中的画笔,蘸取颜料,在画布上自由挥洒的创造性过程。然而,随着AI绘画工

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

AI儿童绘本创作

之前分享过AI儿童绘画的项目,但是主要问题是角色一致要花费很长的时间! 今天发现了这款,非常奈斯! 只需输入故事主题、风格、模板,软件就会自动创作故事内容,自动生成插画配图,自动根据模板生成成品,测试效果如下图。 变现方式:生成儿童绘本发布到各平台,吸引宝妈群体进私域。  百度网盘 请输入提取码百度网盘为您提供文件的网络备份、同步和分享服务。空间大、速度快、安全

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

【新闻】AI程序员要来了吗?阿里云官宣

内容提要 6 月 21 日,在阿里云上海 AI 峰会上,阿里云宣布推出首个AI 程序员。 据介绍,这个AI程序员具备架构师、开发工程师、测试工程师等多种岗位的技能,能一站式自主完成任务分解、代码编写、测试、问题修复、代码提交整个过程,最快分钟级即可完成应用开发,大幅提升研发效率。 近段时间以来,有关AI的实践应用突破不断,全球开发者加速研发步伐。有业内人士坦言,随着大模型性能逐渐提升,AI应

AI元宇宙

随着科技的迅猛发展,人工智能(AI)迎来了一个宇宙大爆发的时代。特别是以GPT为代表的生成式大模型的诞生和不断进步,彻底改变了人们的工作和生活方式。程序员与AI协同工作写代码已成为常态,大模型不仅提高了工作效率,还为人类带来了无限的可能性。 AI元宇宙http://ai.toolxq.com/#/如同生物进化出眼睛打开了三维世界的元宇宙之后,GPT打开了人+AI工作模式的新时代,程序员的人生被划

AI学习指南机器学习篇-朴素贝叶斯处理连续特征和离散特征

AI学习指南机器学习篇-朴素贝叶斯处理连续特征和离散特征 在机器学习领域,朴素贝叶斯是一种常用的分类算法,它的简单性和高效性使得它在实际应用中得到了广泛的应用。然而,在使用朴素贝叶斯算法进行分类时,我们通常会面临一个重要的问题,就是如何处理连续特征和离散特征。因为朴素贝叶斯算法基于特征的条件独立性假设,所以对于不同类型的特征,我们需要采取不同的处理方式。 在本篇博客中,我们将探讨如何有效地处理

AI赋能天气:微软研究院发布首个大规模大气基础模型Aurora

编者按:气候变化日益加剧,高温、洪水、干旱,频率和强度不断增加的全球极端天气给整个人类社会都带来了难以估计的影响。这给现有的天气预测模型提出了更高的要求——这些模型要更准确地预测极端天气变化,为政府、企业和公众提供更可靠的信息,以便做出及时的准备和响应。为了应对这一挑战,微软研究院开发了首个大规模大气基础模型 Aurora,其超高的预测准确率、效率及计算速度,实现了目前最先进天气预测系统性能的显著

AI炒股:自动画出A股股票的K线图并添加技术指标

在deepseek中输入提示词: 你是一个Python编程专家,要完成一个编写Python脚本的任务,具体步骤如下: 用AKShare库获取股票贵州茅台(股票代码:600519)在2024年3月7日到2024年6月5日期间的历史行情数据-前复权。 然后绘制K线图,并在K线图上添加布林线、MACD 注意: 每一步都要输出信息到屏幕上; 日期格式是YYYYMMDD; 设置中文字体,以解决