本文主要是介绍不造AI杀人武器当然好,但牛津学者觉得马斯克们忽略了重点,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
圆栗子 发自 凹非寺
量子位 出品 | 公众号 QbitAI
上个星期,马斯克 (Elon Musk) 刚刚带领一众AI专家,签订了一份承诺书。
内容是,永不开发自主杀人武器 (Lethal Autonomous Weapon Systems)。
理由有二。一,不该把生杀大权交给机器。二,致命AI武器的存在,会让国家和个人承受危险的动荡。
意图自然是好的,但牛津大学的学者Mariarosaria Taddeo (简称玛利亚) 说,他们忽略了一个重点。
而且,把万众目光集中在“AI杀手”上,人们就更难注意到那个重点了。
表面“静止”
智能机器人统治世界,支配人类,这样的极端场景,的确非常吸引眼球。
但那并不是AI技术唯一的隐患。
美军曾经把AI分成两种:一是移动的 (AI in Motion) ,二是静止的 (AI at Rest) 。
前者表示依托于实体机器人的AI,后者表示仅仅存在于软件系统的AI。
美国海军有自动驾驶的军舰,以色列有自主识别、打自主击目标的无人机,这些军用设备里的AI,是移动型。
但战争并非只有硬碰硬,比如,网络世界 (Cyber Space) 就从不和平。
玛利亚觉得,后者才更需要重视,“静止”也不代表不危险。
暗潮汹涌
网络世界里,大大小小的国际争端,可能每天都在发生。
今年3月,美国谴责了俄罗斯,说对方几个月来,一直攻击美国关键的基础设施。
这样的话,事情就不像WannaCry抢比特币那样简单。
如果,有人能利用AI,造成全国范围的停电,或者供暖系统瘫痪,就可能导致非常严重的后果。
△停电不是小事
虽然,还没有发现AI直接造成物理伤害的事件,但不代表以后也不会有。毕竟,AI正在飞速普及。
玛利亚说,社会的运转越依赖AI,系统之间的冲突越可能带来物理伤害。
AI与AI之间,有了自主打击、自主防御行为,就算没有实体机器人,局面还是可能失控。
一线之隔
现在,许多国家都在建立自己的AI网络防线。
玛利亚说,“网络军备竞赛 (Cyber Arms Race) ”可能就要开始了。
可是,防御与攻击,仅一线之隔。
现在,国际上依然没有法规,能够规范网络防御 (Cyberdefence) 行为。
早在2004年,联合国就成立了信息安全政府专家组 (Group of Governmental Experts on Information Security) ,目的便是达成共识,用统一的法条来规范各国在网络空间里的行为。
然而,会开了很多次,共识到今天都没有达成。
今年4月,玛利亚的一篇文章在Nature上发表。她写道,网络防御要三步走——
第一步,划定法律界限。
第二步,在友好邦国之间,测试防御策略。
第三步,建立监管机制,强化法规执行。
她给每一步,都描绘了一些合理的设想。
不过,还不知道这个世界,哪天能走出第一步。
Nature文章传送门:
https://www.nature.com/magazine-assets/d41586-018-04602-6/d41586-018-04602-6.pdf
— 完 —
加入社群
量子位AI社群18群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot8入群;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进群请加小助手微信号qbitbot8,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)
实习生招聘
量子位正在招募活动运营实习生,策划执行AI明星公司CEO、高管等参与的线上/线下活动,有机会与AI行业大牛直接交流。工作地点在北京中关村。简历欢迎投递到quxin@qbitai.com
具体细节,请在量子位公众号(QbitAI)对话界面,回复“实习生”三个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
这篇关于不造AI杀人武器当然好,但牛津学者觉得马斯克们忽略了重点的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!