大模型互相“薅羊毛”背后,行业基本操作,规范化势在必行

本文主要是介绍大模型互相“薅羊毛”背后,行业基本操作,规范化势在必行,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

最近,字节跳动被曝调用 OpenAI API 接口训练大模型的争议,以及谷歌大模型 Gemini 被曝使用百度文心一言进行中文语料训练等事件,在行业里引发了不小的关注和讨论。

不明真相的网友们一边热情吃瓜,一边也在感叹 AI 大厂之间互相“薅羊毛”的奇葩操作,属实是给大家整不会了。

Drawing 0

不过,透过现象看本质。IT之家倒认为,这几件颇受关注的事件或许可以成为一个契机,引导行业走向 AI 大模型训练过程中数据使用版权走向规范化的道路上。

AI 领域数据版权问题是行业通病

前面说的关于字节跳动和 OpenAI 之间的“争议”,目前双方都做出了回应。OpenAI 方面称需要进一步调查字节跳动是否存在违规。而字节跳动则表示仅在初期探索阶段使用 OpenAI 的 API,4 月份的时候已经停止。

而就在外媒报道字节与 OpenAI 事件后不久,谷歌的 Gemini 大模型也被曝出中文语料是使用文心一言进行训练。

有很多用户发现,ZAI Poe 平台上询问谷歌 Gemini-Pro 大模型 “你是谁”?Gemini-Pro 直接就回答:“我是百度文心大模型”,而接着问它“你的创始人是谁”,他也回答是“李彦宏”。

Drawing 1

同时国内媒体“量子位”在 Gemini 官方的开发环境入口进行测试时,Gemini-Pro 也直接声称自己在中文数据的训练上使用了百度文心一言。

截至小编发稿,谷歌方面还没有针对这件事做出回应。

但可以看到,AI 领域数据版权侵权,其实一直是行业的共性问题,也是大模型发展早期很难避免的现象。

比如小编还注意到,今年三月,谷歌就已经被曝出旗下 Bard 聊天机器人通过 ShareGPT 网站捕获用户与 ChatGPT 的对话数据来训练模型。

Drawing 2

除了谷歌,同为科技巨头的 Meta 最近也陷入大模型训练的数据版权风波,根据路透社的报道,由喜剧演员 Sarah Silverman、普利策奖得主 Michael Chabon 等著名作家于今年夏天联合发起诉讼,他们指控 Meta 未经许可使用他们的书籍作品训练人工智能语言模型 Llama。

Meta 于今年 2 月发布了其第一版 Llama 大型语言模型,并公布了用于训练的数据集列表,其中包括“ThePile”数据集的“Books3”部分。根据诉讼文件,该数据集的创建者曾表示,其中包含 196,640 本书籍,Meta 在明知使用其中数千本盗版书籍训练其 AI 模型存在法律风险的情况下,仍然这么做了。

Drawing 3

与之类似的,还有这次事件中的“受害者”OpenAI,今年 9 月,包括《权力的游戏》原著作者乔治・马丁在内的 17 位美国著名作家指控 OpenAI 未经许可使用他们受版权保护的作品,并将这些作品用于训练 ChatGPT 等大模型,还能生成与其作品相似的内容。

Drawing 4

还有今年 11 月,OpenAI 和微软又被一群非小说类作品作家对 OpenAI 和微软提起了诉讼,指控这两家公司在训练其大型语言模型时,未经允许使用了他们的书籍和学术期刊,而且没有给予任何补偿。

诸多案例都显示,在眼下这个 AI 大模型发展的早期,模型训练过程中的数据侵权问题可以说是行业的通病,是普遍现象,并且关于 AI 训练过程中的数据使用问题目前还存在较大的争议性,有待行业规范的进一步完善。

大模型的“无性繁殖”,究竟是咋回事?

我们知道,AI 大模型的基本原理是根据上文的内容输出下一个最有可能出现的 token(语素),那么它怎么保证输出的就是我们想要的呢?答案就是靠训练。

这里我们要先简单介绍一些大语言模型训练的主要阶段:预训练、有监督的精调和人类的反馈学习。

预训练阶段是不需要人工干预的,只要喂给 AI 足够多的数据,AI 就能通过训练获得强大的通用语言能力。

接下来在有监督的精调这一步,就需要解决让大模型输出我们想要的结果的问题。

比如当我们提出“水的沸点是多少度?”这个问题,AI 可能会觉得有很多类型的回复,比如“我也很想知道”,但对人类来说,最合理的回复自然是“100 度”。

所以就需要人类引导 AI 输出我们认为合理的标准答案,这个过程中我们会人为地喂给 AI 大量问题的标准答案,来微调它的模型参数,因此叫监督学习。类似的情况还有很多,比如我们不希望大模型输出不符合人类价值观的内容,所有这些,都需要对模型进行精调,换句话说,就是要对我们想要的数据进行标注。

可想而知,数据标注这件事,是个非常海量且庞大的工程,需要投入非常多的人力和时间。在商业竞争争分夺秒的环境下,对后来进入大模型领域的企业来说,独自且重复地去完成这些事,显然不符合发展的需求。因此,很多大模型使用 GPT 生成标注数据其实已经是行业公开的秘密。

例如之前有些国内的 GPT 镜像站,完全免费,就是某些公司自己花钱调用 OpenAI 的接口,然后拿用户当劳力生成训练数据。

Drawing 5

例如比较知名的开源数据集 Alpaca,也是用 GPT4 生成的。这种用 GPT 的标注数据训练小模型的方法也叫做“蒸馏”。

ChatGPT 爆火之后,不少公司能够这么快地跟进并推出自己的 AI 大模型,其实主要就是两个路径。

其一是使用 Meta 的开源大型语言模型 Llama 来训练。

其二就是 ChatGPT 里面蒸馏一些数据,再结合开源数据集和自己爬的数据,训练自己的大模型。

因此,尽管 OpenAI 在其 API 服务条款中有给出“不可以用 Output 来开发与 OpenAI 竞争的模型”这样的条款,但其实这一政策一直以来都很有争议。

支持的人认为 OpenAI 为训练模型做了大量前期投入,借助他们的服务走捷径是不正确的。而反对的人则认为,OpenAI 的前期训练过程吃了 AI 训练早期外部环境无戒备的红利,且同样存在数据侵权的控诉,此后的模型很难获得同样量级和规模的训练数据,阻止其他企业调用其模型违背“Open”的精神。

在此背景下,我们再看字节跳动的回应:

  • 今年年初,当技术团队刚开始进行大模型的初期探索时,有部分工程师将 GPT 的 API 服务应用于较小模型的实验性项目研究中。该模型仅为测试,没有计划上线,也从未对外使用。在 4 月公司引入 GPT API 调用规范检查后,这种做法已经停止。

  • 早在今年 4 月,字节大模型团队已经提出了明确的内部要求,不得将 GPT 模型生成的数据添加到字节大模型的训练数据集,并培训工程师团队在使用 GPT 时遵守服务条款。

  • 9 月,公司内部又进行了一轮检查,采取措施进一步保证对 GPT 的 API 调用符合规范要求。例如分批次抽样模型训练数据与 GPT 的相似度,避免数据标注人员私自使用 GPT。

  • 未来几天里,我们会再次全面检查,以确保严格遵守相关服务的使用条款。

对于字节跳动的回应,小编想提炼两个重点,其一,字节跳动只是在探索大模型初期时,有部分工程师将 GPT 的 API 服务应用于较小模型的实验性项目研究中,而实验性项目并不违反服务条款。比如微软也曾利用 OpenAI 的合成数据做微调训练,训练出了一个 130 亿参数的模型 Orca,还达到了 chatGPT 3.5 的水平。这个和字节跳动一样,也是实验和研究的用途,并未将模型对外商用。

其二,就是字节跳动在回应中已经明确指出,他们已经在内部反复做出规范和限制,不能使用 GPT 生成数据训练模型,其实,这不仅是遵守服务条款,更是技术发展的必要,因为如果一直使用 Open AI 的模型输出,表面上是走捷径,但实际上相当于是将自己的大模型能力天花板给锁死了,无论模型本身、训练数据还是输出方式,都只是 GPT 的延续,这一点,字节跳动一定比谁都清楚。

AI 大模型训练中的核心版权问题亟待规范和完善

其实,任何新兴行业在发展初期都会存在各种各样的乱象和不合规问题,事物的发展总是一个过程,而标准和规范的介入,也往往是在行业发展规律完全呈现后,在一个合适的契机下发生的。

因此,这次字节跳动和 OpenAI、谷歌 Gemini 和文心一言相继发生的事件,小编认为,我们与其在争议中过多纠结于“对或错”,更值得关注的,应该是关于 AI 领域数据使用的行业规范是否到了进一步规范和完善的时候?

根据工业和信息化部赛迪研究院近日的数据,今年,我国生成式人工智能市场规模有望突破 10 万亿元。专家预测,2035 年生成式人工智能有望为全球贡献近 90 万亿元的经济价值,其中我国将突破 30 万亿元,占比超过四成。

一方面,生成式 AI 的发展势头可谓如火如荼,另一方面,大模型训练的问题处于生成式 AI 生命周期的开始,如果不能从源头上尽早规范,AIGC 大模型的研发就会始终处于侵权和不确定的状态。这对于行业发展显然是不利的。

同时应该注意到,传统的授权许可以及版权法在生成式 AI 训练的领域内会存在很多主体、条件、可行性等难以界定的问题,比如 AIGC 训练的数据量过于庞大众多、来源各异,如果使用事先授权许可的方式,很难将具体的作品从海量数据中进行分离提取,再加上版权界定、付费等一系列操作,几乎不可行。也就是说,AI 时代的数据侵权问题对于现有的版权法律和规范本身就是一项挑战,需要从头开始一点一点完善的地方很多,但又不能不完善,因此必须尽早尽快地推进规范化体系。

好消息是,这个问题正在得到行业的重视。比如今年 6 月,就有中文在线、同方知网、中国工人出版社等 26 家单位共同发布了国内首份有关 AIGC 训练数据版权的倡议书,就针对引导 AI 生成内容的合理使用、提升版权保护意识、优化内容授权渠道等方面提出了倡议。

同时,我们也希望这次字节跳动和 OpenAI 以及 Gemini 与文心一言的事件也能成为一个契机,推动生成式 AI 训练数据核心版权问题的规范化,从“倡议”迈向实际的“落地”。

只有这样,生成式 AI 才能更好的服务于人类,服务于千行百业。

这篇关于大模型互相“薅羊毛”背后,行业基本操作,规范化势在必行的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/519929

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

AI行业应用(不定期更新)

ChatPDF 可以让你上传一个 PDF 文件,然后针对这个 PDF 进行小结和提问。你可以把各种各样你要研究的分析报告交给它,快速获取到想要知道的信息。https://www.chatpdf.com/

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者