本文主要是介绍联合报告称“杀人机器人”将出现,人类安全或受红色警告,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
随着科技进步和人类有放弃武器控制权的可能性,“杀人机器人”数年内将出现,“阻止杀人机器人运动”相关组织发出禁止呼吁。
电影中不乏一些以机器人与人类斗争或机器人攻占地球为背景的美国大片,也早已有人反对智能武器的发展,但大多人都对此保持乐观态度。据每日邮报报道,联合国组织的为期一周的智能武器会议在日内瓦召开时,哈佛法学院下属国际人权诊所与人权观察组织联合发布报告,称数年内科技就能达到制造“杀人机器人”的水平,人类安全受到威胁,呼吁人们禁止相关科技发展。
所谓“杀人机器人”就是指机器人或坦克支持预先编程在没有人为干预情况下,便具有开枪射杀目标的能力。联合报告指出科技发展到让机器自行开枪射杀目标的水平仅需数年,所以人类控制有关机器挽救生命、选择目标、以及确保其遵守国际法等所有武器系统成为“杀人机器人”是否出现的关键。
对此,人权观察组织研究员,资深武器专家伯尼·多彻蒂(Bonnie Docherty)表示机器充当战争工具已有很长的历史,但在此期间,它们从未脱离人类的指示单独行动。而现在,人类有放弃对武器的控制权的可能,试图将生死大权交给机器,这会对人类安全造成威胁。
虽然有些人对使用智能机器人持乐观态度,认为其能减少死亡,但反对智能武器研发的人们态度强硬。包括苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)以及特斯拉电动汽车公司首席执行官伊隆·马斯克(Elon Musk)和科学家史蒂芬·霍金(Stephen Hawking)在内的1000多名科技和机器人专家在去年就已发出警告,称“杀人机器人”可能不需数十年而是数年就会出现。
他们的担心不止如此,在发布的公开信中指出,自主智能武器研发的推动,会造成不止是军事大国甚至是全球各国之间的军备竞赛。自主武器最终的结局是成为“明日的卡拉什尼科夫步枪”。
这种担心不是没有可能,据英国“阻止杀人机器人运动”组织的消息,美国、俄罗斯、英国、以色列以及韩国都在研发使机器具有更大战斗自主权的系统。对此,希望研发智能武器的决策者在做每一步都决定时都要慎重。
这篇关于联合报告称“杀人机器人”将出现,人类安全或受红色警告的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!