生成式人工智能的风险与治理——以ChatGPT为例

2024-06-07 12:20

本文主要是介绍生成式人工智能的风险与治理——以ChatGPT为例,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文 | 西南政法大学经济法学院 马羽男

以ChatGPT为代表的生成式人工智能在创造社会福利的同时,也带来了诸多风险。因此,当务之急是结合我国生成式人工智能发展状况,厘清其应用价值与潜在风险之间的关系,以便在不影响应用发展的前提下有效化解风险。

生成式人工智能的运行机理主要分为三个阶段,也就是机器学习和人工标记的准备阶段、运用算法对数据进行处理以求出处理后结果的运算阶段、数据运算产出成品向社会输出并产生影响的生成阶段。当前,生成式人工智能最突出的风险就是在准备阶段的数据合规风险、运算阶段的算法偏见风险以及生成阶段的知识产权风险。

准备阶段的数据合规风险。我国当前的数据合规体系是建立在《网络安全法》《数据安全法》《个人信息保护法》之上的,要求数据处理者在处理过程中采取必要措施以保障基本的数据安全、网络安全和个人信息安全。基于我国的法律框架,生成式人工智能的数据合规风险主要体现在三个方面:数据来源合规风险、数据使用合规风险、数据的准确性风险。首先是数据来源合规风险。以 ChatGPT为代表的生成式人工智能,初始阶段往往要采集大量数据以供其训练。基于此,可能会面临如下问题:一是收集个人信息用户是否同意;二是收集使用已公开的信息是否在“合理范围”;三是收集的样本受到版权保护,进行训练时可否被认定为“合理使用”。其次是数据使用合规风险。一方面是数据泄露风险。用户会将个人信息、商业信息甚至商业机密等传输给ChatGPT。分析ChatGPT运行机理不难发现,在迭代训练中,它也会使用用户输入的信息和交互信息。因此,如何保证这些数据的安全是一个很大的难题。另一方面是用户行使个人信息删除权比较困难。虽然 OpenAI的隐私协议中规定了用户对其个人信息享有相关的权利,但是鉴于要求生成式人工智能系统删除数据的复杂特性,开发者能否实现对个人信息的真实删除,从而达到符合法规的要求还存在较大的不确定性。最后是数据的准确性风险。因为在 ChatGPT训练的早期,被投入到数据中的内容是由开发人员从网络中获得和选择的,因此就有可能出现因为数据的缺失或错误等情况而致使所生成内容的不准确。

运行阶段的算法偏见风险。以“人工标注”为辅助的“机器学习”,通过二者的结合,提高了生成式人工智能的智能化与精确性。但是,这也使得算法偏见的概率急剧增加。这种结合方法比传统的机器学习方法更能体现人的主观判断和偏好,这是由于人们将自己的偏好信息加入到机器学习的模型中,从而增加了人们的偏见,并且这种偏见很难被追踪和防范。在对 ChatGPT的运作方式进行分析后发现,算法偏见主要表现为两方面:其一,由于接收到的数据需要人工标注,因此在理解过程中存在着一定的误差。其二,对数据进行加工,当 ChatGPT对数据进行加工得出结论后,由于原始结果与大众期望不一致,需要对之进行修正,但这一过程同样会产生一定程度的算法偏见。

生成阶段的知识产权风险。生成式人工智能的兴起,对众多产业提出了新的挑战,而最具冲击之处,在于在生成阶段对知识产权领域所构成的挑战。因为生成式人工智能具有高度的智能化,所以在运算过程中,与之前的人工智能系统相比,其知识产权的归属发生了颠覆性的变化。ChatGPT是一种生成式人工智能,它在处理和分析数据方面远远强于分析式人工智能,其内容生成过程主要包括内容自动化编纂、智能化修整加工、多模态转换、创意生成等,直接影响着出版的内容生产模式和内容供应模式。尽管ChatGPT的创造者中包含一些自然人的创作因素,从某种意义上来说,更符合作品的构成要件,但这种由生成式人工智能所创造的作品能否被赋权,仍然存在争论,并且具体的赋权认定标准研究还处于空白状态。因此,知识产权风险成为生成式人工智能无法规避的第三大风险。

针对上述生成式人工智能三个方面的风险,建议采取以下三种应对策略来化解风险。

强化生成式人工智能企业的数据合规建设。生成式人工智能的发展不能只重能力和效率而忽视安全,相关企业应当利用良好的数据合规体系来保障数据安全。企业数据合规建设可以通过三个措施强化。其一,确立数据合规原则。其原则主要有四点,分别是合法合规原则、告知同意原则、正当目的原则、最小必要原则。其二,建立数据合规的多元技术机制。首先是宏观层面的行业标准要统一。各行业的主管部门,应该带头建立一个数据版本的“新华辞典”,让数据编码、制式等保持一致,确保数据的来源、内容和处理逻辑能够被“反事实验证”。其次是中观层面的内外审查体系。在内部设立数据合规专门机构,负责企业日常的数据合规处理,在外部引入第三方审查机制,对企业数据合规进行审计和伦理审查。最后是微观层面的伦理规范。将伦理规范与原则以法律形式嵌入到技术应用的行为逻辑中去,使之能够因势而为。其三,完善数据合规相关法律。首先是完善立法,在立法层面加快出台数据、人工智能方面的基本法,以作为企业数据合规法律方面的顶层指导。其次是执法完善,尽快明确各部门的执法权限,避免“多头治理”产生“九龙治水”的局面。最后是完善司法,完善电子证据制度,保障权利人的相关诉权。

技管结合矫正生成式人工智能的算法偏见。这主要包含两个措施。其一,针对生成式人工智能机器学习过程中所出现的先天性算法偏见,应当调整相关算法模型的学习路径,遵守相关规范和技术标准,在生成式人工智能投入市场前应当进行实质审查。鉴于生成式人工智能的特征,可将其纠偏工作分为两个方面:一方面,采用算法程序编译预防机器学习中可能存在的先天偏见;另一方面,设置人工标注的标准,提高从业人员的执业水平以应对人工标注的算法偏见。其二,针对生成式人工智能的自我学习而得出的后天性算法偏见,应当通过建立敏捷化、自动化、全流程的监管体系来消除偏见。首先,实现对算法技术的自动化监管。针对机器学习和人工标注实现自动化监管,每当出现算法偏见时暂停输出结果,返回查找问题根源。其次,建立多元主体监管模式。行政主体、平台、行业协会、企业自身多方主体参与监管。最后,落实全流程敏捷的监管机制。对生成式人工智能产出结论的全过程进行监管,切实降低由于算法偏见导致错误结论的概率,有效推进可信算法体系的构建。

采用有限保护模式,以防范生成式人工智能作品在知识产权方面的风险。相较于传统的人工智能技术,生成式人工智能的创新之处在于其拥有一定程度的自我认知,并且参与了输出结果的加工和创造。如果基于其自我认知,而将其所有成果都进行保护,那么未来可能会出现生成式人工智能公司手握“创作霸权”的局面。但从商业角度而言,生成式人工智能公司耗费大量金钱和技术资本打造高度智能的人工智能程序,如果对该程序衍生的“作品”完全不予保护,也有违公平。因此,对于ChatGPT生成物的知识产权属性,现阶段应该根据其技术运行模式、参与程度、创新程度等进行综合评判,对其产品的知识产权采用有所区分的有限保护模式。等到未来生成式人工智能发展到一定阶段,深入了解其运行机制时,再确定具体的知识产权保护模式。

以ChatGPT为代表的生成式人工智能方兴未艾,它所带来的法律风险,很多都应在既有法律框架内妥善应对。面对风险和问题,不能因为产业有风险和理论有争议,就限制生成式人工智能发展。这需要采取“法律+技术”的融合治理来营造一个好的市场环境,保障生成式人工智能市场茁壮成长。

【本文系国家社科基金一般项目“个人信息的竞争法保护疑难问题研究”(23BFX186)阶段性成果】

(来源:中国社会科学网)

这篇关于生成式人工智能的风险与治理——以ChatGPT为例的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1039166

相关文章

揭秘未来艺术:AI绘画工具全面介绍

📑前言 随着科技的飞速发展,人工智能(AI)已经逐渐渗透到我们生活的方方面面。在艺术创作领域,AI技术同样展现出了其独特的魅力。今天,我们就来一起探索这个神秘而引人入胜的领域,深入了解AI绘画工具的奥秘及其为艺术创作带来的革命性变革。 一、AI绘画工具的崛起 1.1 颠覆传统绘画模式 在过去,绘画是艺术家们通过手中的画笔,蘸取颜料,在画布上自由挥洒的创造性过程。然而,随着AI绘画工

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

AI儿童绘本创作

之前分享过AI儿童绘画的项目,但是主要问题是角色一致要花费很长的时间! 今天发现了这款,非常奈斯! 只需输入故事主题、风格、模板,软件就会自动创作故事内容,自动生成插画配图,自动根据模板生成成品,测试效果如下图。 变现方式:生成儿童绘本发布到各平台,吸引宝妈群体进私域。  百度网盘 请输入提取码百度网盘为您提供文件的网络备份、同步和分享服务。空间大、速度快、安全

人工智能机器学习算法总结神经网络算法(前向及反向传播)

1.定义,意义和优缺点 定义: 神经网络算法是一种模仿人类大脑神经元之间连接方式的机器学习算法。通过多层神经元的组合和激活函数的非线性转换,神经网络能够学习数据的特征和模式,实现对复杂数据的建模和预测。(我们可以借助人类的神经元模型来更好的帮助我们理解该算法的本质,不过这里需要说明的是,虽然名字是神经网络,并且结构等等也是借鉴了神经网络,但其原型以及算法本质上还和生物层面的神经网络运行原理存在

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

人工智能做音乐

0 别人做的音乐demo https://yun.baidu.com/share/link?shareid=1799925478&uk=840708891 1 为什么人工智能能做音乐? 最下面蓝色的部分是你输入的音乐。 从上图可以看出,input是一个个的点,然后通过input来相互结合生成灰色的点,经过几层的连接之后,最后的Output就是新生成的音乐,也就是黄色的点。 把黄色的点

【新闻】AI程序员要来了吗?阿里云官宣

内容提要 6 月 21 日,在阿里云上海 AI 峰会上,阿里云宣布推出首个AI 程序员。 据介绍,这个AI程序员具备架构师、开发工程师、测试工程师等多种岗位的技能,能一站式自主完成任务分解、代码编写、测试、问题修复、代码提交整个过程,最快分钟级即可完成应用开发,大幅提升研发效率。 近段时间以来,有关AI的实践应用突破不断,全球开发者加速研发步伐。有业内人士坦言,随着大模型性能逐渐提升,AI应

AI元宇宙

随着科技的迅猛发展,人工智能(AI)迎来了一个宇宙大爆发的时代。特别是以GPT为代表的生成式大模型的诞生和不断进步,彻底改变了人们的工作和生活方式。程序员与AI协同工作写代码已成为常态,大模型不仅提高了工作效率,还为人类带来了无限的可能性。 AI元宇宙http://ai.toolxq.com/#/如同生物进化出眼睛打开了三维世界的元宇宙之后,GPT打开了人+AI工作模式的新时代,程序员的人生被划

AI学习指南机器学习篇-朴素贝叶斯处理连续特征和离散特征

AI学习指南机器学习篇-朴素贝叶斯处理连续特征和离散特征 在机器学习领域,朴素贝叶斯是一种常用的分类算法,它的简单性和高效性使得它在实际应用中得到了广泛的应用。然而,在使用朴素贝叶斯算法进行分类时,我们通常会面临一个重要的问题,就是如何处理连续特征和离散特征。因为朴素贝叶斯算法基于特征的条件独立性假设,所以对于不同类型的特征,我们需要采取不同的处理方式。 在本篇博客中,我们将探讨如何有效地处理