深入浅出LLM大语言模型

2024-06-11 11:12
文章标签 llm 深入浅出 模型 语言

本文主要是介绍深入浅出LLM大语言模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一. 前言

2022年末,聊天程序ChatGPT的上线,在短短5天被注册用户就破百万。ChatGPT的爆火,在一夜之间,带领人类穿越到了真正的人工智能时代。

本文会从ChatGPT作为切入点,在介绍其底层的GPT模型诞生史后,再深入浅出地讲解大语言模型(LLM)及工作原理。在整篇文章中,从点到面到又介绍了自然语言处理(NLP)、深度学习、Transformer模型等,让你对LLM和AI领域有更加清晰透彻的理解。

img

二. GPT模型的诞生史

1. 自然语言处理的局限性

自然语言处理(Natural Language Processing, NLP)是人工智能领域(AI)的一个重要分支,其发展已经有数十年的历史。NLP旨在使计算机能够理解、处理和生成人类语言,为实现智能对话系统奠定了基础。

在NLP技术演进前期,NLP主要基于规则、统计模型等实现,所以传统的NLP技术存在一些局限性,例如对复杂语境的理解能力不足、生成自然流畅文本的难度较大等。

所以在ChatGPT出现之前,虽然已经产生了非常多智能聊天工具,但是只可以完成简单、生硬、且固定模板下的对话。原因就在于自然语言处理的局限性。

img

2. 机器学习的崛起

机器学习(Machine Learning, ML)也是AI领域的一个重要分支,随着机器学习技术的不断进步和普及,NLP领域也迎来了新的机遇。

机器学习技术主要包括无监督学习,和有监督学习。通过大规模数据的学习和模式识别,使得计算机能够更好地理解和处理自然语言。

传统的NLP任务,如文本分类、命名实体识别等,开始采用机器学习方法,取得了显著的进展。然而,传统的机器学习方法在处理复杂的自然语言任务时仍然存在一些挑战,例如需要手动提取特征、模型泛化能力有限等。

img

3. 深度学习的崭露头角

深度学习(Deep Learning, DL)是机器学习中的一种有监督学习,它模仿人类大脑的结构和工作方式,通过构建深层神经网络来处理和理解复杂的数据,常见的神经网络模型有传统的循环神经网络(RNN)和卷积神经网络(CNN)等。

img

深度学习的出现,为NLP提供了更加强大和灵活的工具。NLP领域也开始出现了一系列重大突破。这些深度学习模型利用大规模数据的学习能力以及复杂的神经网络结构,可以从原始的文本数据中提取高层次的语义表示,从而实现更准确和更灵活的NLP任务。

(1) 如何对神经网络训练

深度学习是有监督学习,通过为人工神经网络提供标记数据集和对应的正确答案,达到对神经网络训练的目的。

例如,面部识别领域内的某项深度学习网络训练首先处理数十万张人脸图像,使用各种与性别或情绪相关的术语描述每幅图像。

该神经网络将通过这些提前提供正确答案的数据集慢慢构建知识网络。在该网络完成训练后,即可开始对以前未处理过的新人脸图像进行关于性别或情绪相关的猜测。

(2) 神经网络面临的挑战

神经网络作为一种强大的机器学习工具,已经在许多领域取得了巨大成功。然而,它也面临着一些挑战,这些挑战可能会限制神经网络在某些任务上的性能和应用。一些主要的挑战包括:

  • 记忆长度: 传统的神经网络在处理长序列时往往会出现记忆衰减的问题 img
  • 并行性 :传统的神经网络在处理序列数据时通常是逐步顺序处理的,因此难以利用并行计算的优势。
  • 长距离依赖性: 传统的神经网络在处理长距离文本时,会存在梯度消失和梯度爆炸问题,导致在处理长序列时性能下降

4. Transformer横空出世

Transformer模型首次在2017年的论文《Attention is All You Need》中提出,它引入了自注意力机制(Self-Attention Mechanism)和位置编码(Positional Encoding)等,在处理序列数据时取得了巨大成功。Transformer模型具有更高的并行性和更长的记忆长度,能够更好地处理序列数据中的长距离依赖关系,解决了传统神经网络面临的问题。基于Transformer可以生成自然、流畅、复杂的文本。极大地提高了NLP的能力。

Transformer模型的出现标志着NLP领域迈入了一个新的阶段,为诸如语言模型预训练、序列到序列学习等任务带来了革命性的变革。Transformer模型的成功也为后续更多基于深度学习的NLP模型,如BERT、GPT等,铺平了道路,为NLP技术的进一步发展打下了坚实的基础。

img

5. GPT模型的诞生

随着深度学习和神经网络技术的不断发展,研究人员开始探索如何利用大规模的语言数据来训练更加智能和自然的语言模型。在这样的背景下,GPT(Generative Pre-trained Transformer)由OpenAI于2018年提出,基于GPT模型的ChatGPT产品也于2022年末上线。

(1) 主要特点

GPT是一种 ①基于Transformer架构 ②预训练的 ③生成式的 NLP模型。

① 基于Transformer架构

GPT是基于Transformer架构实现的,并没有创新性的提出一种新的模型架构

② 预训练的

GPT模型与传统Transformer模型的区别,主要在于它的Pre-trained预训练,通过预训练-微调(pre-training, fine-tuning)的方法实现。

  1. 预训练(无监督):首先在大规模语料上进行预训练得到一个通用的模型,主要是获得语言理解和生成能力
  2. 微调(有监督):然后在特定任务上进行微调,以适应更贴合用户和实际特定场景的需求
③ 生成式的

需要知道的是,GPT模型并不是第一个使用预训练的Transformer模型,比如在2018年Google提出了BERT模型。

BERT(Bidirectional Encoder Representations from Transformers)模型是一个典型的双向语言表示学习模型。它专注于双向的语言表示学习,即模型在学习语言表示时能够同时考虑文本中的左侧和右侧上下文信息,从而更全面地理解文本的语境和含义。

GPT模型是在这些先前工作的基础上发展而来的,它与之前的模型相比的一个主要特点是采用了单向语言模型的预训练方法,所以这种单向的语言模型预训练方法使得GPT模型更适合于生成式任务,这也是GPT模型被称为生成式(Generative)模型的原因。

(2) 大力出奇迹

当GPT模型找到了适合自己的方向后,便开始在生成式模型这条道路上,开始了大力的投入。在它的背后,是在疯狂的堆加参数,疯狂的读取海量语料数据,对GPT进行疯狂的训练。

这些大规模的参数和数据量,使得训练一次的费用达到了惊人的千万美元。GPT-4的参数规模更是在GPT-3的10倍以上,这背后的费用是完全不敢衡量的。

image

三. 大语言模型时代来临

虽然在技术创新方面,GPT模型似乎并未带来全新的技术突破,但毫无疑问的是,这种通过大规模预训练来学习语言模型的方法,不仅直接推动了行业内大型语言模型(Large Language Model, LLM)的兴起,更是引发了生成式人工智能(Artificial Intelligence Generated Content, AIGC)领域的革命。

img

四. 揭开LLM的面纱

1. 什么是LLM

LLM(large language model,LLM)大语言模型是在2018年左右出现的一种语言模型,由具有许多参数(通常数十亿个权重或更多)的人工神经网络组成,使用无监督学习对大量未标记语料进行预训练生成通用模型,然后再在不同特定任务下进行微调。

LLM每个单词的释义如下:

  • Large(大型): 表示该模型具有大量的参数、大量的语料、复杂庞大的结构
  • Language(语言): 表示该模型用于NLP任务,可以处理和生成自然语言,如英语、中文等
  • Model(模型): 表示该模型是基于深度学习构建的神经网络模型,一般都是基于Transformer架构

GPT模型作为LLM的重要代表和标杆,行业内的LLM大都和GPT模型类似,所以在讲解LLM的时候也是基于GPT这种标准模型,不考虑其他特殊的模型。

2. LLM的构成特点

在前面介绍《GPT模型的诞生史》中,可以知道GPT模型的三个核心构成特点主要是 ①Transformer架构 ②预训练 ③生成式。

(1) Transformer架构

在LLM中,Transformer架构也是至关重要的组成部分之一。Transformer模型的核心是由多个编码器和解码器层组成的深度神经网络结构。编码器负责将输入文本进行编码,提取语义信息,而解码器则负责生成输出文本或者解码任务特定的表示。Transformer架构具有高度的并行性和可扩展性,能够有效地处理长序列数据,并且在自然语言处理领域取得了巨大成功。

① Input Embedding

神经网络需要数字作为输入(因为神经网络中大部分都是很多数学函数,比如线性函数等),但是文本数据是如何输入的呢,毕竟你不能将线性函数应用于文本数据。

幸运的是科学家们想到了如何使用非数字数据进行模型训练,那就是one-hot encode技术 ,即用唯一的向量替换每个可能的变量值的技术。

所以首先先对输入的文本,进行向量化处理,也称为Embedding:

  • Raw Input : Hi how are you
  • Tokens : [ Hi, how, are, you ] 先对原始文本进行分词处理,依次找到每个token
  • Token Ids : [ 10, 15, 26, 30 ] 再定义一个token表,然后依次找到每个token对应的tokenID
  • Input Embedding : [ [0.1, 0.54, 0.29], [0.3, 0.12, 0.62], [0.13, 0.14, 0.9], [0.1, 0.2, 0.19] ]

img

② Positional Encoding

Positional Encoding是解决长距离依赖的重要过程之一,它是一种将序列中的位置信息嵌入到词向量中的技术。通过在词向量中添加位置编码来表示每个词的位置信息。这样模型在接收输入时,不仅可以学习词的语义信息,还可以了解词在序列中的顺序。

  • Positional index : 0, 1, 2, 3
  • Positional Embedding : [ [0.2, 0.3, 0.0], [0.2, 0.3, 0.1], [0.2, 0.3, 0.2], [0.2, 0.3, 0.3], ]
  • Positional Embedding + Input Embedding : [ […], […], […] ]

img

③ encoder编码器

编码器是负责将输入序列转换为一系列隐藏表示的部分。它负责对输入序列进行编码和提取特征,为后续的任务提供语义信息。Transformer中的编码器由多个相同的层堆叠而成,每一层都由两个子层组成:自注意力机制层和前馈神经网络层。它的工作流程如下:

  • 自注意力机制层(Self-Attention Layer): 这一层负责计算输入序列中每个位置的注意力权重,以便模型能够在整个序列中捕捉上下文信息和长距离依赖关系。每个位置的隐藏表示会根据其他位置的信息进行加权求和,从而得到更丰富的表示。
  • 前馈神经网络层(Feedforward Neural Network Layer): 这一层对每个位置的隐藏表示进行非线性变换和映射,以提取更高级的特征。通常包括一个全连接层和一个激活函数,用于增强编码器的表征能力。

通过多层编码器的堆叠,Transformer模型能够逐层地提取输入序列中的特征,并将其转换为适合后续任务处理的表示形式。编码器的输出可以被用于解码器进行下游任务的执行,如语言建模、机器翻译等。

  1. 隐藏表示(Hidden Representation)是指输入数据经过一系列的线性变换和非线性变换后得到的一个向量,它用来表示输入数据的抽象特征。比如在解码器中,隐藏表示是关于当前位置的输入序列信息的一个抽象表示,它包含了输入序列的语义信息,但已经被转换成了一个更加紧凑的形式,便于后续的处理和生成。
  2. 在长距离文本计算中,使用到了成对卷积层Pairwise Convolutional Layer技术
④ decoder解码器

解码器是负责将编码器产生的隐藏表示转换为目标序列的部分。它主要通过自注意力机制和编码-解码注意力机制来理解输入序列的语义信息,并将其转换为目标序列的表示。它的工作流程如下:

  • 自注意力机制层(Self-Attention Layer): 解码器的每个位置都会对自己位置的词进行注意力计算,以捕捉目标序列中的内部依赖关系。
  • 编码-解码注意力机制层(Encoder-Decoder Attention Layer): 这一层允许解码器在生成每个位置的输出时,与编码器的隐藏表示进行交互。通过计算解码器当前位置与编码器各个位置之间的注意力权重,解码器可以聚焦于输入序列的不同部分,提取相关信息。
  • 前馈神经网络层(Feedforward Neural Network Layer): 最后一层是一个前馈神经网络层,负责将解码器当前位置的隐藏表示转换为目标序列的输出。通过多层的全连接层和激活函数,前馈神经网络层能够提取更高级的特征,以产生最终的输出。

通过以上三个步骤,解码器能够逐步生成并调整目标序列的每个位置的输出,并在生成过程中根据输入序列和先前生成的部分来进行动态调整。这使得Transformer模型在各种序列生成任务中表现出色,如机器翻译、文本总结等。

⑤ 如何理解整个过程
  1. 输入向量化(向量) :先把输入文本和每一个词的位置信息进行向量化并计算得出每一个词的向量值
  2. 编码器处理(压缩) :在编码器中对输入的向量值进行一层又一层的无数次数学计算,保证每一层都有上一层的所有上下文信息,最终输出一系列高度抽象的隐藏表示(向量数据)。这些隐藏表示包含了输入序列的语义信息,但已经被转换成了一个更为紧凑的形式,以便后续的处理。img
  3. 解码器理解(解压):编码器产生的隐藏表示并不直接包含目标序列的信息。因此,需要解码器对这些隐藏表示进行解压,将其中包含的输入序列的语义信息转换为目标序列。解码器通过多次迭代生成和调整的过程,逐步将编码器的输出转化为完整的目标序列。
  4. 解码器输出(输出):解码器最终负责逐步生成和调整目标序列的每个位置的输出。在这个过程中,解码器根据先前已生成的部分目标序列以及编码器的输出,不断地预测并生成下一个位置的目标序列元素。通过多次迭代,解码器逐步生成完整的目标序列,从而完成了序列到序列的转换任务。
(2) 预训练

LLM的预训练阶段也是其关键组成部分之一。通过大规模的预训练,LLM能够在海量文本数据上学习到丰富的语言表示,从而具备了通用的语言理解能力。预训练通常采用无监督或者半监督的方式进行,这种预训练策略使得LLM能够更好地理解文本的语义和语境,为后续的微调任务打下了坚实的基础。

(3) 生成式

LLM通常被设计用于生成式任务,如文本生成、机器翻译、对话生成等。在生成式任务中,LLM利用预训练学习到的语言表示,通过解码器部分生成连贯自然的文本序列。生成式任务的优势在于能够根据输入文本生成新的文本,能够应用于多种自然语言处理任务中,并在诸多应用领域取得了成功。

3. LLM是如何工作的

LLM通过预训练和微调两个阶段来完成自然语言处理任务。预训练阶段通过大规模语料库学习语言模型的普适知识,微调阶段则通过在特定任务上的有标注数据上进行训练,使得模型适应具体的应用场景。

img

(1) 预训练阶段:

在预训练阶段,LLM使用大规模的文本数据来学习语言模型。这些文本数据通常是来自于互联网等大规模文本语料库,包含了各种类型的文本,如新闻、百科、社交媒体等。LLM通过预训练阶段学习文本中的语言模式、语法结构和语义信息,从而掌握语言的普遍规律和知识。

在预训练过程中,LLM模型会经过多轮迭代,通过自监督学习的方式来训练模型。通常采用的方法是掩盖(masking)部分输入文本中的词语或句子,然后让模型预测被掩盖的部分。通过这种方式,模型能够学习到词语之间的关联性、语义信息以及上下文的语境。

正是因为LLM提前预训练了海量的语料数据,所以当我们向GPT提问各行各业问题时,它大部分都可以比较正确输出。为什么说是大部分呢 ?这个会在下面《RAG场景》中讲到。

(2) 微调阶段:

在预训练完成后,LLM模型通常需要在特定任务上进行微调,以适应具体的应用场景。微调阶段的目的是通过在特定任务上的有标注数据上进行训练,进一步提升模型的性能和泛化能力。

在微调阶段,LLM模型会被输入一些与任务相关的有标注数据,比如文本分类、命名实体识别、机器翻译等任务的训练数据。然后,通过在这些数据上进行训练,模型可以调整自身参数,使得模型在特定任务上表现更好。

五. LLM的应用场景

1. RAG场景

(1) LLM存在的问题

在上面《LLM是如何工作的》中留了一个伏笔,LLM在哪些情况下会输出不正确呢 ?很简单,比如GPT训练的数据可能只截止到22年左右,如果向GPT问发生在24年的事情,那它肯定是不知道的。所以简单说LLM存在下面两个问题

  • 时效性不及时 :LLM依赖训练的语料,语料的时效性就决定了LLM回答的正确性
  • 数据源不充足 :LLM依赖训练的语料,如果缺少某一个领域内的语料,那么LLM也无法回答正确

如何解决这个问题呢 ?换句话说如何让LLM可以更准确的回答我们的问题呢 ?

(2) 什么是RGA

RAG(Retrieval-Augmented Generation)它是一种结合了检索和生成的方法,用于自然语言处理任务。它的思路很简单,既然LLM的语料存在时效性和数据源的问题,那么提供语料的这个操作就由用户传递过去。

img

① 检索阶段(Retrieval)

由于语料通常是几十MB甚至更大的文件,不可能全部传递过去,所以这就需要用到检索,即只传递相关性最高的数据,以减少资源的消耗。

首先,系统会使用检索式方法从大型知识库或文档集合中检索与当前任务相关的文本片段或文档。这和一般的检索/搜索系统是没有任何区别的,只不过为了提高相关性搜索的准确率,很多系统会使用向量存储的方式,这样的话就可以尽可能从知识库中检索到准确性更高的数据。

检索到的文本通常包含与待生成内容相关的信息,比如问题回答等。它会作为LLM的输入,提供给LLM作为上下文环境,以便LLM在生成阶段生成更加相关和准确的内容。

  1. 检索阶段通常是由一个专门的检索系统来完成的,而不是由大型语言模型(LLM)直接执行。
  2. 为保证检索到相关性最高的数据,一般情况下语料数据会使用向量存储,通过向量计算的方式,提高检索的相关性。
② 生成阶段(Generation)

在检索阶段检索到对应的文本后,会传递给LLM,当LLM获得文本后,会利用这些文本作为上下文,进行生成式任务。

生成阶段的输入是文本数据,也就是说传递给LLM模型的通常是文本数据,而不是向量数据!

③ 调整阶段(Adjustment)

在调整阶段,系统可以根据用户的反馈或后处理方法,对生成的文本进行进一步的修改或优化,以满足特定的需求。

(3) 结合RAG场景使用

结合RAG场景,LLM可以与信息检索模型相结合,根据用户的查询检索相关的信息,并生成与检索结果相关的文本。RAG场景常见的应用包括智能问答系统、文档总结生成等。

2. AIGC场景

AIGC(Artificial Intelligence Generated Content,人工智能生成内容)是一个涵盖多种生成式任务的场景,包括文本生成、图片生成、代码生成、视频生成、语音生成等等。在这些任务中,LLM(Large Language Model,大语言模型)可以发挥重要作用,解决各种问题,为各种应用场景提供支持。

在AIGC场景中,LLM作为一个通用的生成模型,可以灵活应用于各种生成式任务中,为内容创作和生成提供强大支持。通过LLM的应用,可以实现自动化的内容生成和创作,提高生产效率,拓展创作领域。

img

六、总结

在本文中,我们探讨了ChatGPT的诞生以及其对自然语言处理(NLP)领域的影响。首先,我们从自然语言处理(NLP)、机器学习和深度学习等方面介绍了ChatGPT的背景。随后,我们详细讨论了NLP领域的技术发展历程,从传统方法到深度学习的崭露头角,再到Transformer模型的出现,为理解ChatGPT的诞生奠定了基础。

接着,我们深入探讨了LLM的技术实现原理,包括Transformer架构、预训练和生成式等关键技术。我们分析了GPT模型的出现对生成式人工智能的推动,以及其在大语言模型(LLM)时代的作用。在AIGC场景中,LLM展现出了强大的生成能力,可以应用于文本生成、图片生成、代码生成、视频生成、语音生成等多个领域。

总之,ChatGPT的诞生标志着人工智能技术迈向了一个新的阶段,为未来的研究和应用开辟了新的道路。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的zi yuan得到学习提升
😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些P DF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.2.1 什么是Prompt
    • L2.2.2 Prompt框架应用现状
    • L2.2.3 基于GPTAS的Prompt框架
    • L2.2.4 Prompt框架与Thought
    • L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
    • L2.3.1 流水线工程的概念
    • L2.3.2 流水线工程的优点
    • L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
    • L3.1.1 Agent模型框架的设计理念
    • L3.1.2 Agent模型框架的核心组件
    • L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
    • L3.2.1 MetaGPT的基本概念
    • L3.2.2 MetaGPT的工作原理
    • L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
    • L3.3.1 ChatGLM的特点
    • L3.3.2 ChatGLM的开发环境
    • L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
    • L3.4.1 LLAMA的特点
    • L3.4.2 LLAMA的开发环境
    • L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习zhi nan已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

这篇关于深入浅出LLM大语言模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1051009

相关文章

C语言中联合体union的使用

本文编辑整理自: http://bbs.chinaunix.net/forum.php?mod=viewthread&tid=179471 一、前言 “联合体”(union)与“结构体”(struct)有一些相似之处。但两者有本质上的不同。在结构体中,各成员有各自的内存空间, 一个结构变量的总长度是各成员长度之和。而在“联合”中,各成员共享一段内存空间, 一个联合变量

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

C语言 将“China”译成密码

将“China”译成密码,密码规律是:用原来的字母后面的第4个字母代替原来的字母。例如,字母“A”后面的第4个字母是“E”,用“E”代替“A”。因此,“China”应译为“Glmre”。编译程序用付赋初值的方法使c1,c2,c3,c4,c5这五个变量的值分别为“C”,“h”,“i”,“n”,“a”,经过运算,使c1,c2,c3,c4,c5分别变成“G”,“l”,“m”,“r”,“e”。分别用put

OpenCompass:大模型测评工具

大模型相关目录 大模型,包括部署微调prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容 从0起步,扬帆起航。 大模型应用向开发路径:AI代理工作流大模型应用开发实用开源项目汇总大模型问答项目问答性能评估方法大模型数据侧总结大模型token等基本概念及参数和内存的关系大模型应用开发-华为大模型生态规划从零开始的LLaMA-Factor

模型压缩综述

https://www.cnblogs.com/shixiangwan/p/9015010.html

C语言入门系列:探秘二级指针与多级指针的奇妙世界

文章目录 一,指针的回忆杀1,指针的概念2,指针的声明和赋值3,指针的使用3.1 直接给指针变量赋值3.2 通过*运算符读写指针指向的内存3.2.1 读3.2.2 写 二,二级指针详解1,定义2,示例说明3,二级指针与一级指针、普通变量的关系3.1,与一级指针的关系3.2,与普通变量的关系,示例说明 4,二级指针的常见用途5,二级指针扩展到多级指针 小结 C语言的学习之旅中,二级

AI赋能天气:微软研究院发布首个大规模大气基础模型Aurora

编者按:气候变化日益加剧,高温、洪水、干旱,频率和强度不断增加的全球极端天气给整个人类社会都带来了难以估计的影响。这给现有的天气预测模型提出了更高的要求——这些模型要更准确地预测极端天气变化,为政府、企业和公众提供更可靠的信息,以便做出及时的准备和响应。为了应对这一挑战,微软研究院开发了首个大规模大气基础模型 Aurora,其超高的预测准确率、效率及计算速度,实现了目前最先进天气预测系统性能的显著