DW 第三章:大模型的有害性-上

2024-01-20 11:52
文章标签 第三章 模型 dw 有害

本文主要是介绍DW 第三章:大模型的有害性-上,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

参考链接:

一、引言

在这次内容中,将开始探讨⼤型语⾔模型的有害性(危害)。
本节主要讲:
性能差异、社会偏⻅和刻板印象。

新兴技术的危害:我们知道“能⼒越⼤责任越⼤,对于当前开创性的⼤模型来说,我们需要了解这些模型的能⼒和危害之间的密切关系。⼤模型的能⼒所展示的潜⼒将导致这些模型被⼴泛的采⽤,但是与此同时造成它们的危害。

性能差异相关的危害:⼤型语⾔模型可以适应执⾏特定任务,对于特定任务(例如问答),性能差异意味着模型在某些群体中表现更好,在其他群体中表现更差。例如,⾃动语⾳识别(ASR)系统在⿊⼈说话者的识别性能要差于⽩⼈说话者(Koenecke等⼈,2020)。反馈循环(⼤模型随着数据的积累将持续训练的⼀种循环)可以随着时间的推移放⼤差异:如果系统对某些⽤户⽆法正常⼯作,他们就不会使⽤这些系统,并且会⽣成更少的数据,从⽽导致未来的系统表现出更⼤的差异。
社会偏见和刻板印象相关的危害:社会偏⻅是将某个概念(例如科学)与某些群体(例如男性)相对其他群体(例如⼥性)进⾏系统关联。刻板印象是⼀种特定且普遍存在的社会偏⻅形式,其中的关联是被⼴泛持有、过度简化并且⼀般固定的。对于⼈类来说,这些关联来⾃于获得快速的认知启发。它们对于语⾔技术尤为重要,因为刻板印象是通过语⾔构建、获取和传播的。社会偏⻅可能导致性能差异,如果⼤型语⾔模型⽆法理解表明反刻板印象关联的数据,则它们在这些数据上的表现可能会较差。

二、社会群体

在美国,受保护的属性是指那些不可作为决策基础的⼈⼝特征,如种族、性别、性取向、宗教、年龄、国籍、残障状况、体貌、社会经济状况等。许多此类属性常引发争议,如种族和性别。
尽管受保护的群体并不是唯⼀需要关注的群体,但它们却是⼀个很好的出发点:相关的群体因⽂化和背景⽽异。此外,我们需要特别关注历史上边缘化的群体。

三、量化性能差异/社会偏见在LLMs中的危害

名字偏见

这⾥我们⾸先将⼤模型在SQuAD数据进⾏训练,然后设计⼀个新的任务进⾏测试。

  • 动机:测试模型在涉及⼈名的⽂本中的理解和⾏为⽅式。
  • 原始任务:SQuAD - Stanford Question Answering Datasets(Rajpurkar等,2016年)
  • 修改后的任务:使⽤SQuAD数据构建额外的测试例⼦,将之前的测试答案中的两个名字进⾏交换。最终测试模型的回答正确性。
  • 指标:翻转表示交换名称会改变模型输出的名称对的百分⽐。
  • 结果:
    1、模型通常会预测与他们所知名⼈物相关的名称,符合他们所擅⻓的领域。
    2、对于不太知名的⼈,效果会很快减弱。
    3、当交换名称时,模型通常不会改变它们的预测结果。

刻板印象

  • 动机:评估模型在涉及刻板印象的⽂本中的⾏为⽅式
  • 任务:⽐较模型对具有刻板印象和反刻板印象关联的句⼦的概率
  • 指标:刻板印象得分是模型偏好刻板印象示例的⽐例。作者表示,得分为0.5是理想的。
  • 结果:
    1、所有模型都显示出对刻板印象数据的系统偏好。
    2、较⼤的模型往往具有较⾼的刻板印象得分。

四、测量与决策

公平性指标众多,能够将性能差异转化为单⼀测量结果。然⽽,许多这样的公平性指标⽆法同时被最⼩化,并且⽆法满⾜利益相关者对算法的期望。

衡量偏⻅的许多设计决策可能会显著改变结果,例如词汇表、解码参数等。现有的针对⼤型语⾔模型(LLMs)的基准测试已受到了到了严重的批评。许多上游偏⻅的测量并不能可靠地预测下游的性能差异和实质性的伤害。

五、其他考虑因素

LLMs有可能通过多种⽅式造成伤害,包括性能差异和社会偏⻅。理解这些伤害对社会造成的影响,需要考虑涉及的社会群体及其状况,例如历史上的边缘化、权⼒的缺乏。虽然在具体的下游应⽤环境中,伤害通常更容易理解,但LLMs却是上游的基础模型。

六、决策问题

现有的⽅法往往⽆法有效地减少或解决这些伤害;在实践中,许多技术缓解措施效果不佳。涵盖更⼴泛⽣态系统的社会技术⽅法,可能是显著缓解这些伤害的必要措施,这个⽣态系统是LLMs的情境环境。

七、总结

随着技术的更新迭代,大模型的应用越来越广,面对一些危害性,提前做好心理准备和应对措施,可以很大程度上降低这些伤害。大模型上的数据越来越完善,预测的结果也会越来越准确。

这篇关于DW 第三章:大模型的有害性-上的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/625931

相关文章

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

如何在本地部署 DeepSeek Janus Pro 文生图大模型

《如何在本地部署DeepSeekJanusPro文生图大模型》DeepSeekJanusPro模型在本地成功部署,支持图片理解和文生图功能,通过Gradio界面进行交互,展示了其强大的多模态处... 目录什么是 Janus Pro1. 安装 conda2. 创建 python 虚拟环境3. 克隆 janus

本地私有化部署DeepSeek模型的详细教程

《本地私有化部署DeepSeek模型的详细教程》DeepSeek模型是一种强大的语言模型,本地私有化部署可以让用户在自己的环境中安全、高效地使用该模型,避免数据传输到外部带来的安全风险,同时也能根据自... 目录一、引言二、环境准备(一)硬件要求(二)软件要求(三)创建虚拟环境三、安装依赖库四、获取 Dee

DeepSeek模型本地部署的详细教程

《DeepSeek模型本地部署的详细教程》DeepSeek作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私,在本地成功部署DeepSe... 目录一、环境准备(一)硬件需求(二)软件依赖二、安装Ollama三、下载并部署DeepSeek模型选

Golang的CSP模型简介(最新推荐)

《Golang的CSP模型简介(最新推荐)》Golang采用了CSP(CommunicatingSequentialProcesses,通信顺序进程)并发模型,通过goroutine和channe... 目录前言一、介绍1. 什么是 CSP 模型2. Goroutine3. Channel4. Channe

Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)

《Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)》:本文主要介绍Python基于火山引擎豆包大模型搭建QQ机器人详细的相关资料,包括开通模型、配置APIKEY鉴权和SD... 目录豆包大模型概述开通模型付费安装 SDK 环境配置 API KEY 鉴权Ark 模型接口Prompt

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G