本文主要是介绍通过制度规范化解人工智能伦理风险的做法是普遍的,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
人工智能伦理风险防范思路
针对人工智能可能引发的各种伦理问题,西方学者普遍认为应该从机器伦理价值导向设计、行业标准设定以及立法等多途径防范和规避人工智能伦理风险。
在国际学术界有较大影响力的是自上而下的道德编码和自下而上的道德学习的机器设计思路。前者主张将人类社会的道德规则以程序编码的方式嵌入算法中,使机器能够通过计算和推理进行道德决策。后者认为人类的道德行为是在具体道德情景、与他人的互动中习得的,因而无须预先编码,让机器通过道德案例观察、与其他道德体互动学习等成为道德行动者。
这两种设计各有局限,前者存在选择何种伦理价值嵌入以及如何应对复杂道德场景的问题,后者存在没有伦理指导系统,仅凭机器学习,输入机器的道德敏感数据会得出何种结果的问题。考科尔伯格(Mark Coeckelbergh)认为,当前的机器学习实质上是一种统计学加工过程,因而机器很难被训练成完全的道德行动者,他主张从人机互动的关系进路设计道德机器。
通过行业标准设定防范和规避人工智能伦理风险的对策。近年来,欧洲机器人研究网络(EURON),美国国家航空航天局(NASA)和国家科学基金会、韩国贸易、工业和能源部等从国家层面对人工智能伦理研究进行指导。一些行业协会如英国标准协会(BSI)颁布了《机器人和机器系统的伦理设计和应用指南》,美国电气与电子工程师协会(IEEE)提出“合乎伦理设计”(EAD)规范等,以应对因设计者认知偏好引发的算法歧视、社会不公等问题。
通过制度规范化解人工智能伦理风险的做法。2021年4月,欧盟通过了《人工智能法》立法提案,对人工智能的功能和用途等要素做了不可接受的风险、高风险、有限风险和低风险等层级区分,并提出了明确、具体的对应分类治理和监管体系。
国际学术界对“合乎伦理设计”的道德机器可行性探索,为我们开发设计可信赖的人工智能提供了方法论的指引。在疫情难以预料的当下和未来,人类命运休戚与共,加速人工智能与各领域的深度融合,使世界形成一个泛智能化的地球村已是大势所趋。因此,搁置争议,寻求全球共识,设计具有最大公约数的道德机器,共同抵御未来的不确定性风险非常必要、迫切并将成为可能。但这些学者将研究重心集中于如何规避技术风险,忽视了人文价值缺失在技术应用中的极化伦理风险。为了解决这些问题,我们应始终坚持以人民为中心的科技发展规律,在技术的发展和应用中始终将维护人的尊严,呵护人的价值作为根本目标和前置条件。
这篇关于通过制度规范化解人工智能伦理风险的做法是普遍的的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!