本文主要是介绍微软总裁施博德:开发可信赖的人工智能,技术设计者的角色是关键,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
【上图为微软公司总裁施博德(Brad Smith)】
我们正走进人工智能(AI)社会。人工智能已经深入地融入到生活与工作中,日常交通出行查看手机导航、每天在手机APP上查看各种推送的媒体新闻、工业自动化机器人代替人类生产着各种产品等等,已经有着非常广泛的人工智能身影。人工智能对社会的影响,远远比今天人们的认知还要广泛。
在教育、医疗保健、交通、农业、能源和制造等领域,人工智能已初显锋芒,极大提高了人们的理解深度和决策能力,但另一方面也必将引发新的社会问题。例如,如何确保人工智能公平对待每一个人?如何在保护隐私的同时,享受人工智能带来的好处?如何避免失去对机器的控制?此外,人工智能系统并非法外之地,如何让人工智能系统遵守世界各地浩如烟海的法律规定?
2018年7月9日,微软公司总裁施博德(Brad Smith)在由中国发展研究基金会主办的《未来基石-人工智能的社会伦理和角色》报告(以下简称:《报告》)发布会上,与清华大学公管学院院长薛澜教授就人工智能的社会角色进行了深入探讨。施博德表示,人工智能可以帮助人类克服最为艰巨的社会挑战,但也要注意人工智能所需要承载的伦理道德和价值观,人工智能只有在符合伦理道德标准的基础上才能更好的服务人类社会。为了设计可信赖的人工智能,微软提出了人工智能六项基本准则,作为体现道德原则的人工智能解决方案框架。
AI伦理道德大讨论
【上图为微软公司总裁施博德(左)与清华大学公管学院院长薛澜教授(右)对话】
近年来,国际社会对于人工智能的关注,日益转移到重视人工智能中的伦理道德与法律问题。从去年开始,从美国到欧洲到中国,全球掀起了关于人工智能伦理道德大讨论。特别是2018年3月,Uber自动驾驶车首次撞死了行人,进一步激发了各界对人工智能立法的关注。
国际电气和电子工程师协会(IEEE)在2016年12月发布了“自主和智能系统的伦理设计”1.0版本,当时汇集了全球数百位思想领袖以及人工智能、伦理道德领域专家的意见,主要为鼓励技术开发者在开发自主系统和智能系统的时候,要优先考虑伦理道德因素与原则。2017年12月,“自主和智能系统的伦理设计”2.0版本发布,IEEE同时推出了“伦理道德在行动”活动,鼓励全球都积极参与IEEE发起的讨论。
微软公司积极参与国际社区关于人工智能伦理道德以及相关立法方面的讨论,这是源自于比尔·盖茨时代就追求可信计算以及建立计算与人类用户之间的信任。在2002年,比尔·盖茨在发送给微软员工的一份备忘录中就表达了可信计算比其他任何工作内容都更重要的观点。而微软新一任CEO萨提亚·纳德拉在可信计算的基础上,进一步提出技术的伦理与同理心。纳德拉在其《刷新:重新发现商业与未来》一书中提出了“同理心+共同价值观+安全可靠=信任”这一公式。
纳德拉提出在推动人工智能发展的过程中,最重要的步骤就是对人工智能设计达成一个伦理和同理心的框架,并鼓励全行业和全社会对此进行讨论。微软总裁施博德去年与微软全球执行副总裁、微软人工智能及微软研究事业部负责人沈向洋主持撰写了《Future Computed》一书,进一步推动了业界与社会对于人工智能伦理道德的关注。
人工智能的机遇与挑战
中国也认识到了人工智能伦理道理的重要性。2017年,中国政府发布《新一代人工智能发展规划》,提出要“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。中国发展研究基金会积极展开了《未来基石-人工智能的社会伦理和角色》研究,并参考了微软在人工智能的社会角色和伦理方面的思考和洞察。
《报告》认为,中国在人工智能领域的快速发展,已经展示出巨大的应用前景。特别是人工智能确实能帮助中国推进经济社会结构转型,在人口数量上红利消失的前提下,帮助突破供给侧短板,缓解医疗、教育等社会资源挑战。
微软总裁施博德在对谈中表示,人工智能可以帮助解决人类现在面临最大的一些挑战,比如精准医疗、精准农业等。
例如在精准农业方面,未来二十五年内全球人口预计将增加约25亿,人工智能可提高农业产量和减少浪费,有效地增加粮食产量。例如,微软的“FarmBeats”项目采用先进技术、联通现有设施以及强大的云和机器学习功能,来实现低成本的数据驱动型农业。该项目为农民提供了易于理解的建议,帮助提高农业产量,降低总体成本,减少农业对环境的影响。
当然,在另一方面,我们也看到科幻小说和科幻电影以戏剧化方式引发了公众的恐慌,让中产阶级产生了对人工智能的知识恐慌和焦虑,社会上出现了对人工智能的狂热投资和非理性投入等。而诸如无人车在决定“撞老人”还是“撞孩子”这样就算是人类司机也难以决策的问题,AI决策算法到底要怎么设计,这其实在很大程度上引发了对人类自己的反思。因此,如何让社会更好地理解和认识人工智能,在接受的同时能够理性地看待人工智能,是我们进入人工智能社会面临的主要挑战之一。
人工智能六项基本准则
与其它公司讨论人工智能不同的是,微软还在积极实践人工智能,并且把普及人工智能全民化作为公司的使命。微软不仅仅推出了基于智能云Azure的人工智能服务以及Cortana人工智能助理和微软小冰对话型聊天机器人等,更把人工智能扩散到微软的所有产品和服务中。
《Future Computed》一书强调,40年前比尔·盖茨和保罗·艾伦成立微软时,他们的目标是让每一个人都能受益于计算机的计算能力,于是他们着手建立用于家庭、学校以及工作场所、帮助人们提高效率的“个人”计算机。如今,微软通过人工智能所做的事情也与此类似。微软的目标是部署人人可用、体现永恒社会价值的人工智能系统,让人工智能赢得所有人的信任。
施博德强调,要设计出可信赖、赢得所有人信任的人工智能,必须采取体现道德原则的解决方案,而这些道德原则应深深根植于重大和永恒的价值观。具体而言,人工智能系统应公平、可靠与安全、隐私与保密、包容、透明和负责,这就是微软的人工智能六项基本准则。
比如在可靠与安全方面,人工智能能否取得人们信任,最终取决于基于人工智能的系统能否可靠、安全和一致地运行,这不仅是在通常情况下,更包括意外或受到攻击的情况。此外,人工智能系统往往并不能看到或理解更大的社会图景,因此人类的判断对于识别人工智能系统潜在的盲点和偏见非常关键,开发人员应意识到这些挑战。
再比如在透明方面,因为一旦人工智能系统被用于做出影响人们生活的决策,人们就有必要了解人工智能是如何做出这些决策的。然而深度神经网络等人工智能算法本身就是“黑箱子”,因此需要更全面的方法,使人工智能系统设计人员能够尽可能完整、清晰地描述系统的关键组成要件。微软正在与人工智能合作组织(PAI)及其他组织合作开发最佳实践规范,以实现人工智能系统有意义的透明度。
施博德表示,创建安全、可靠的人工智能系统不是某一个人的责任,而是共同的责任。为了确保这六项原则有效实施,微软设立了开发和研究人工智能与道德标准委员会(AETHER),帮助解决微软人工智能研究、产品和客户沟通中产生的伦理和社会影响问题。清华大学薛澜教授在会上也表示,未来人工智能需要一套信息治理机制,在使用信息和保护隐私之间找到合理的平衡,而这其中公司的责任非常关键。像微软提出的六项原则,可以适用到更多公司,跨界的治理机制需要尽快推进。
总结来说,人工智能的长期发展基石,无疑是技术的伦理道德和价值观。毕竟技术是由人所创造出来的产物,反应了人的思维和智慧,也反应了人的伦理道德和价值观。面对新一轮技术带来的巨大变化和冲击,人工智能的最大挑战不在技术而在于设计、开发和使用技术的人。建立负责任地使用人工智能的原则、政策和法律是全社会和全人类共同面对的挑战,需要政府、学界、企业等各利益相关方的共同努力。(文/宁川)
这篇关于微软总裁施博德:开发可信赖的人工智能,技术设计者的角色是关键的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!