本文主要是介绍AI安全立法:加州新法案的争议与未来影响,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
一项备受争议的法案旨在强制执行大型人工智能(AI)模型的安全标准,这项法案已在加州州议会获得通过,以45票赞成、11票反对的结果通过了加州众议院。早在5月,加州参议院以32票对1票的结果通过了该法案(SB-1047)。现在,这项法案只需在参议院进行最后一次程序性投票,然后就会递交给加州州长加文·纽森(Gavin Newsom)审批。
正如之前详细探讨过的那样,SB-1047法案要求AI模型的创建者在模型出现“对公共安全和安保构成新威胁”时,尤其是在“缺乏人类监督、干预或管理”的情况下,必须实施一种可以“关闭”该模型的“杀手开关”。一些人批评该法案,认为它过分关注于未来可能发生的AI风险,而忽略了当下AI应用中诸如深度伪造(deep fakes)或虚假信息传播等现实危害。
在周三宣布立法通过时,该法案的发起人、州参议员斯科特·维纳(Scott Weiner)引用了AI行业知名人士的支持,如Geoffrey Hinton和Yoshua Bengio(这两位去年也签署了一份声明,警告快速发展的AI技术可能带来的“灭绝风险”)。
Bengio在《财富》杂志近期发表的一篇社论中表示,这项法案“为前沿AI模型的有效监管划定了最低限度的要求”,并且它只针对训练成本超过1亿美元的大型模型,因此不会影响小型初创公司。
Bengio写道:“我们不能让公司自我评估并仅仅给出听起来好听的保证。我们在其他技术领域如制药、航空航天和食品安全上不允许这样做。为什么AI应该被区别对待?”
然而,斯坦福大学计算机科学教授、AI专家李飞飞(Fei-Fei Li)在本月早些时候的另一篇《财富》社论中表示,这项“出于良好意图”的立法将对加州乃至全国产生“重大意外后果”。
李飞飞认为,法案对任何修改后模型的原始开发者施加的责任将“迫使开发者退缩并采取防御性措施”,这将限制AI权重和模型的开源共享,并对学术研究产生重大影响。
纽森将作何决定?
周三,加州的一群商业领袖向纽森发出公开信,敦促他否决这项“根本有缺陷”的法案,认为该法案“错误地将监管重点放在模型开发上,而非其滥用”。这些商业领袖表示,该法案将“引入繁重的合规成本”,并通过监管模糊性“抑制投资和创新”。
如果参议院如预期般确认众议院的版本,纽森将有时间直到9月30日决定是否签署该法案成为法律。如果他否决,立法机构可以通过每个议院三分之二的投票推翻(鉴于该法案获得的压倒性支持,这种可能性较大)。
在今年5月的加州大学伯克利分校研讨会上,纽森表示,他担心“如果我们过度监管,过度放纵,追逐一个闪亮的目标,我们可能会将自己置于危险境地”。
但与此同时,纽森也提到,他从AI行业领袖那里听到了相反的担忧。“当你看到这项技术的发明者,这些教父教母们在说‘帮帮我们,你们需要监管我们’时,这就形成了一种截然不同的氛围,”他在研讨会上说道。“当他们急于教育人们,基本上在说‘我们真的不知道自己做了什么,但你们必须对此采取行动’时,这就成了一个有趣的局面。”
这篇关于AI安全立法:加州新法案的争议与未来影响的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!