大模型面试--大模型(LLMs)基础面

2024-05-24 21:44
文章标签 基础 面试 模型 llms

本文主要是介绍大模型面试--大模型(LLMs)基础面,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

大模型(LLMs)基础面

1. 目前主流的开源模型体系有哪些?

目前主流的开源大模型体系有以下几种:

1. Transformer 系列

Transformer 模型是深度学习中的一类重要模型,尤其在自然语言处理(NLP)领域。以下是一些主流的 Transformer 模型:

GPT 系列
  • GPT-2GPT-3:由 OpenAI 开发的生成式预训练变换器模型,用于生成高质量的文本。
  • GPT-NeoGPT-J:由 EleutherAI 开发的开源替代品,提供类似于 GPT-3 的功能。
BERT 系列
  • BERT(Bidirectional Encoder Representations from Transformers):由 Google 开发,用于双向编码的语言表示模型。
  • RoBERTa(Robustly optimized BERT approach):由 Facebook AI 开发,改进了 BERT 的训练方法。
  • DistilBERT:由 Hugging Face 开发,是 BERT 的轻量级版本,具有较少的参数但性能相近。
T5 系列
  • T5(Text-To-Text Transfer Transformer):由 Google 开发,可以将所有 NLP 任务转换为文本生成任务。

2. RNN 系列

虽然 Transformer 模型更为流行,但循环神经网络(RNN)和其变种(如 LSTM 和 GRU)仍在一些特定任务中使用。

3. CNN 系列

卷积神经网络(CNN)主要用于计算机视觉任务,但在一些文本分类和 NLP 任务中也有应用。

4. 其他开源大模型

OpenAI CLIP
  • CLIP:用于图像和文本共同嵌入的模型,能够在多模态数据上进行搜索和分类。
DALL-E
  • DALL-E:用于生成图像的模型,可以根据文本描述生成高质量的图像。
Stable Diffusion
  • Stable Diffusion:开源的文本到图像生成模型,通过扩散过程生成图像。

5. 框架和平台

  • Hugging Face Transformers:一个支持众多预训练模型的库,提供了简便的接口来加载和使用不同的 Transformer 模型。
  • TensorFlow HubPyTorch Hub:提供了许多预训练模型,方便开发者加载和使用。
  • DeepSpeed:由微软开发的优化库,帮助加速大规模模型的训练和推理。

总结

这些开源大模型和平台提供了强大的工具和资源,帮助研究人员和开发者在各种任务中应用最先进的机器学习模型。这些模型和框架不仅在 NLP 领域占据重要地位,也在计算机视觉、多模态数据处理等领域取得了显著的成果。

2. prefix Decoder 和 causal Decoder 和 Encoder-Decoder 区别是什么?

在深度学习,特别是在自然语言处理(NLP)领域,prefix Decodercausal DecoderEncoder-Decoder 都是不同类型的模型结构。它们的主要区别在于如何处理输入和生成输出。以下是每种结构的详细解释和比较:

Encoder-Decoder 架构

结构概述
  • Encoder:将输入序列编码为一个固定长度的上下文向量(或一系列向量)。
  • Decoder:使用该上下文向量生成输出序列。
工作方式
  1. 编码阶段:Encoder 接收输入序列并将其转换为隐藏表示。这些隐藏表示通常是上下文向量,包含输入序列的语义信息。
  2. 解码阶段:Decoder 接收这些上下文向量,并逐步生成输出序列。解码时,Decoder 可以使用之前生成的输出作为输入来生成下一个词。
适用场景
  • 机器翻译
  • 文本摘要
  • 图像描述生成
优点
  • 能处理变长的输入和输出序列。
  • 上下文信息在整个序列生成过程中都得到利用。

Causal Decoder

结构概述
  • 单向解码器:只能访问当前时间步及之前的时间步的输入信息。
工作方式
  • 在训练过程中,Causal Decoder 使用当前时间步的输入及之前时间步的输入来预测当前时间步的输出。这种单向处理确保每个时间步的输出只依赖于之前的输入,不会利用未来的信息。
适用场景
  • 语言模型(如 GPT 系列)
  • 需要逐步生成输出的任务,如文本生成、自动补全。
优点
  • 适合生成任务,因为每个时间步的预测仅基于之前的内容,避免信息泄露。
  • 可以在不需要完整输入的情况下开始生成。

Prefix Decoder

结构概述
  • 部分双向解码器:在生成阶段,只能访问生成过程中的之前的输出,但在编码阶段可以利用上下文信息。
工作方式
  • Prefix Decoder 通常在某些任务中被用作一种特殊的解码方式,例如在机器翻译中,前缀可以是已经翻译好的部分,后续部分根据前缀继续生成。
  • 在编码阶段,可以利用完整上下文信息(类似于 Encoder-Decoder 模型中的 Encoder 部分)。
  • 在解码阶段,只能利用前缀信息,类似于 Causal Decoder。
适用场景
  • 需要根据上下文生成后续内容的任务。
  • 机器翻译中的部分翻译任务。
优点
  • 结合了双向上下文信息和单向生成能力。
  • 能够在生成任务中利用已有的上下文进行更加准确的预测。

总结

  • Encoder-Decoder 架构主要用于需要处理变长输入和输出的任务,如机器翻译。它利用 Encoder 编码输入序列,然后 Decoder 根据编码生成输出序列。
  • Causal Decoder(单向解码器)适用于生成任务,如语言建模和文本生成。每个时间步的输出只依赖于之前的输入,保证了生成过程的合理性。
  • Prefix Decoder 结合了 Encoder-Decoder 和 Causal Decoder 的特点,在生成阶段只能利用前缀信息,适合需要根据上下文生成后续内容的任务。

不同的架构适用于不同的应用场景,选择合适的架构可以显著提高模型在特定任务中的性能和生成质量。

3. 大模型LLM的训练目标是什么?

大型语言模型(LLM)的训练目标通常是基于特定的目标函数,通过优化这些目标函数来调整模型的参数,使其能够在给定任务上表现良好。主要的训练目标包括以下几种:

1. 自回归语言模型(Autoregressive Language Modeling)

目标
  • 最大化给定序列的概率:模型的目标是最大化训练语料库中每个句子的概率。
训练方式
  • 通过最大化条件概率 P ( w t ∣ w 1 , w 2 , … , w t − 1 ) P(w_t | w_1, w_2, \ldots, w_{t-1}) P(wtw1,w2,,wt1),来预测序列中的下一个词 w t w_t wt
  • 损失函数通常是负对数似然损失(Negative Log-Likelihood Loss)。
示例
  • GPT 系列:训练目标是最大化每个单词在给定前序单词序列条件下的概率。

2. 自编码语言模型(Autoencoding Language Modeling)

目标
  • 重建被掩蔽的词或部分序列:模型的目标是根据上下文重建被掩蔽(masked)的词。
训练方式
  • 部分输入序列中的词被掩蔽(如用 [MASK] 标记),模型通过上下文信息预测这些掩蔽词。
  • 损失函数同样是负对数似然损失,但应用在被掩蔽词上。
示例
  • BERT 系列:训练目标是预测被掩蔽的词语,通过掩蔽语言模型(MLM)任务进行训练。

3. 序列到序列模型(Sequence-to-Sequence Modeling)

目标
  • 最大化输出序列的条件概率:模型的目标是根据输入序列生成相应的输出序列。
训练方式
  • 使用编码器-解码器架构,编码器将输入序列编码为上下文向量,解码器根据上下文向量生成输出序列。
  • 损失函数通常是负对数似然损失,应用于整个输出序列。
示例
  • T5(Text-To-Text Transfer Transformer):将所有任务(如翻译、问答、摘要)转换为文本到文本任务。

4. 对比学习(Contrastive Learning)

目标
  • 最大化相似样本的相似性,最小化不相似样本的相似性:模型的目标是通过比较正负样本来学习区分不同类别或内容。
训练方式
  • 利用正负样本对(如句子对,图文对)进行训练,正样本对的相似性得分要高于负样本对。
  • 损失函数通常是对比损失(Contrastive Loss)或三元组损失(Triplet Loss)。
示例
  • CLIP(Contrastive Language-Image Pre-Training):利用对比学习训练模型,使得图像和文本嵌入在同一向量空间中。

5. 强化学习(Reinforcement Learning)

目标
  • 最大化累积奖励:模型的目标是通过与环境交互,学习策略以最大化预期累积奖励。
训练方式
  • 模型根据当前状态选择动作,通过动作对环境进行操作,从而获得奖励。训练过程中调整策略以提高获得的累计奖励。
  • 损失函数根据具体的强化学习算法(如策略梯度、Q-learning)不同而不同。
示例
  • AlphaGo:利用强化学习和自我对弈提高围棋对局策略。

6. 多任务学习(Multi-task Learning)

目标
  • 在多个相关任务上同时优化模型:通过共享表示和参数,提高模型在所有任务上的性能。
训练方式
  • 使用统一的模型架构和损失函数,同时处理多种任务。
  • 损失函数是多个任务损失的加权和。
示例
  • UnifiedQA:一个统一的问答模型,可以处理多种问答格式和任务。

总结

大型语言模型的训练目标依赖于具体任务和应用场景,常见的包括自回归语言建模、自编码语言建模、序列到序列建模、对比学习、强化学习和多任务学习等。通过选择适当的训练目标和优化策略,模型可以在各种语言任务中表现出色。

4. 大模型具有涌现能力是什么原因?

大规模语言模型(LLMs,如 GPT-3 和 BERT)的训练目标和涌现能力是当前自然语言处理(NLP)领域中的关键话题。以下是关于它们训练目标和涌现能力的详细解释。

涌现能力(Emergent Abilities)

涌现能力指的是大规模语言模型在训练过程中,随着模型规模的增加(更多的参数和数据),表现出一些在较小模型中未显现的复杂行为或能力。这种现象在大规模预训练模型中尤为显著,常见的涌现能力包括:

  1. 复杂推理能力

    • 大模型能够在给定复杂上下文的情况下进行逻辑推理和推导,这些能力在小模型中通常不明显或不存在。
  2. 上下文理解与生成

    • 大模型能够生成更加连贯和上下文一致的长文本。这是由于大规模数据和参数使模型能更好地捕捉语言的结构和语义关系。
  3. 多任务学习

    • 大模型可以在不同任务之间泛化,并在没有专门训练的数据上表现出良好的性能。例如,GPT-3 在零样本或少样本学习任务中表现出色。
  4. 语言翻译和知识回答

    • 大模型能进行高质量的语言翻译和回答开放式问题,这说明模型在训练过程中学习到了广泛的语言知识和事实信息。

涌现能力的原因

涌现能力的原因主要包括以下几个方面:

  1. 模型规模

    • 增加模型的参数数量(如更深的层、更宽的隐藏层)和训练数据量,使模型能够学习更复杂的模式和表示。这种增加不仅提高了模型的拟合能力,还增强了模型在未见过的数据上的泛化能力。
  2. 训练数据的多样性和规模

    • 大规模和多样化的训练数据让模型能够学习到语言中的丰富结构和细节。通过暴露于不同类型的文本和任务,模型可以捕捉到语言的广泛语义和上下文关系。
  3. 预训练和微调的结合

    • 预训练阶段提供了广泛的语言知识基础,而微调阶段让模型针对特定任务进行优化。这种两阶段训练方法使模型能够在特定任务中表现出色,同时保留广泛的语言能力。
  4. 复杂的训练目标

    • 复杂的训练目标(如自监督学习、对比学习等)可以促使模型学习到更具泛化性的特征,从而在不同任务中展示出涌现能力。

总结

大规模语言模型的训练目标主要围绕语言建模和特定任务的优化。它们的涌现能力来源于模型规模的增加、丰富的训练数据、多样化的训练目标和有效的预训练微调方法。这些因素共同作用,使得大模型能够表现出在小模型中难以观察到的复杂行为和能力。

5. 为何现在的大模型大部分是Decoder only结构?

现在的大规模语言模型中大部分采用了 Decoder-only 结构的主要原因有几个:

  1. 自回归生成:Decoder-only 结构适合于自回归生成任务,如文本生成和语言建模。在这种任务中,模型需要逐步生成输出序列,每次生成一个词语或符号,而且生成过程依赖于之前生成的部分。Decoder-only 结构正好满足了这种需求,使得模型可以高效地生成连贯的文本。

  2. 预训练效果好:一些著名的大规模语言模型,如 GPT 系列,采用了 Decoder-only 结构,并通过大规模的自监督预训练来学习语言表示。这些模型在预训练阶段使用了海量的文本数据,可以捕捉到语言中的各种语义和语法结构,因此在各种 NLP 任务上表现出色。

  3. 多样的应用场景:Decoder-only 结构在各种 NLP 任务中都有广泛的应用,包括文本生成、情感分析、问答系统等。这种结构的模型可以直接应用于生成型任务,也可以通过微调适应于其他任务,因此具有很强的通用性。

  4. 避免信息泄露:在自回归生成任务中,模型在生成每个词时只依赖于之前已生成的部分,因此不存在信息泄露的问题。相比之下,Encoder-Decoder 结构中的 Encoder 可能会泄露未来信息,导致不准确的生成结果。

  5. 参数效率高:相对于 Encoder-Decoder 结构,Decoder-only 结构的参数量通常更少,因为不需要额外的编码器。这使得训练和推理过程更加高效,并且更容易适应于资源受限的环境。

综上所述,现在的大规模语言模型大部分采用 Decoder-only 结构是因为它在自回归生成任务中表现优秀,具有较好的预训练效果、通用性和参数效率。

6. 简单 介绍一下 大模型【LLMs】?

现在的大规模语言模型中大部分采用了 Decoder-only 结构的主要原因有几个:

  1. 自回归生成:Decoder-only 结构适合于自回归生成任务,如文本生成和语言建模。在这种任务中,模型需要逐步生成输出序列,每次生成一个词语或符号,而且生成过程依赖于之前生成的部分。Decoder-only 结构正好满足了这种需求,使得模型可以高效地生成连贯的文本。

  2. 预训练效果好:一些著名的大规模语言模型,如 GPT 系列,采用了 Decoder-only 结构,并通过大规模的自监督预训练来学习语言表示。这些模型在预训练阶段使用了海量的文本数据,可以捕捉到语言中的各种语义和语法结构,因此在各种 NLP 任务上表现出色。

  3. 多样的应用场景:Decoder-only 结构在各种 NLP 任务中都有广泛的应用,包括文本生成、情感分析、问答系统等。这种结构的模型可以直接应用于生成型任务,也可以通过微调适应于其他任务,因此具有很强的通用性。

  4. 避免信息泄露:在自回归生成任务中,模型在生成每个词时只依赖于之前已生成的部分,因此不存在信息泄露的问题。相比之下,Encoder-Decoder 结构中的 Encoder 可能会泄露未来信息,导致不准确的生成结果。

  5. 参数效率高:相对于 Encoder-Decoder 结构,Decoder-only 结构的参数量通常更少,因为不需要额外的编码器。这使得训练和推理过程更加高效,并且更容易适应于资源受限的环境。

综上所述,现在的大规模语言模型大部分采用 Decoder-only 结构是因为它在自回归生成任务中表现优秀,具有较好的预训练效果、通用性和参数效率。

7. 大模型【LLMs】后面跟的175B、60B、540B等 指什么?

大模型(LLMs,Large Language Models)后面跟随的数字(如175B、60B、540B等)表示该模型的参数数量,通常以十亿(Billion)为单位。这些数字反映了模型的规模大小,即模型所包含的参数数量的数量级。

例如,175B 表示该模型包含约 1750 亿个参数,60B 表示约 600 亿个参数,540B 表示约 5400 亿个参数,依此类推。

在大规模语言模型中,参数数量通常是衡量模型规模的一个重要指标。更大的模型通常可以捕捉到更多的语言结构和语义信息,并具有更强大的泛化能力,但也需要更多的计算资源和更长的训练时间来训练和推理。因此,模型规模的选择通常需要在模型性能和资源成本之间进行权衡。

8. 大模型【LLMs】具有什么优点?

大规模语言模型(LLMs,Large Language Models)具有许多优点,这些优点使它们成为当前自然语言处理(NLP)领域的研究热点和工业应用的核心。以下是大模型的一些主要优点:

  1. 语言理解能力:大模型能够学习到丰富的语言表示,能够理解语言中的各种语义和语法结构。这使得它们在各种 NLP 任务中表现出色,如文本分类、命名实体识别、语义理解等。

  2. 生成能力:大模型具有强大的生成能力,能够生成高质量的自然语言文本。这使得它们在文本生成任务中表现出色,如文章摘要、对话生成、机器翻译等。

  3. 泛化能力:大模型通过在大规模数据上进行预训练,学习到了丰富的语言知识和表示。这种泛化能力使得它们在未见过的任务和数据上也能取得很好的表现,有时甚至可以进行零样本学习。

  4. 多任务学习:大模型通常能够同时处理多种不同类型的任务,这种多任务学习能力使得它们更加灵活和通用。同一个模型可以用于多种任务,而不需要针对每个任务训练单独的模型。

  5. 迁移学习:大模型可以通过微调(Fine-tuning)在特定任务上进行训练,从而适应于特定应用场景。这种迁移学习能力使得大模型在实际应用中更加灵活和适用。

  6. 语言理解和生成的统一框架:一些大模型,如 GPT 系列,采用统一的解码器结构,在预训练和微调阶段都使用相同的模型。这种统一的框架使得模型的设计和使用更加简单和一致。

  7. 开放源代码:许多大规模语言模型是开源的,可以由研究人员和开发者进行自由使用和定制。这促进了模型的创新和进步,使得更多人可以受益于先进的自然语言处理技术。

综上所述,大规模语言模型具有语言理解和生成能力强、泛化能力强、灵活多用、迁移学习能力强等优点,成为了当前自然语言处理领域的研究热点和工业应用的核心技术。

9. 大模型【LLMs】具有什么缺点?

尽管大规模语言模型(LLMs,Large Language Models)具有许多优点,但也存在一些缺点和挑战,主要包括以下几个方面:

  1. 计算资源消耗大:大模型通常需要大量的计算资源来进行训练和推理。训练大规模语言模型需要大规模的数据集和分布式计算资源,而在实际应用中,推理阶段也需要足够的计算资源来处理大量的数据。

  2. 高能耗:训练大规模语言模型需要大量的计算资源和能源,导致高昂的能源消耗。这不仅增加了成本,还可能对环境造成不利影响,特别是当数据中心使用化石燃料时。

  3. 数据隐私和安全性:大规模语言模型在训练和推理阶段需要大量的文本数据,可能涉及用户隐私和敏感信息。模型的泛化能力可能会导致对敏感信息的过度学习,从而引发数据隐私和安全性问题。

  4. 社会影响和偏见:大规模语言模型在生成文本时可能会反映出数据集中的偏见和社会偏见,导致生成结果带有不公平或歧视性。此外,模型可能会被滥用或误用,例如用于生成虚假信息、操纵舆论等。

  5. 可解释性差:大规模语言模型的复杂性使得其内部工作机制难以理解和解释。这给模型的可信度和透明度带来挑战,也限制了模型在一些对解释性要求较高的应用场景中的应用。

  6. 对数据依赖性强:大规模语言模型的性能往往受到数据质量和数据分布的影响。如果模型训练数据不够多样化或不足够代表性,可能会导致模型的泛化能力下降或产生误导性的结果。

  7. 对环境的影响:大规模语言模型的训练和使用需要大量的计算资源,可能会导致碳排放增加和电力消耗增加,从而对环境造成负面影响。

综上所述,尽管大规模语言模型具有许多优点,但也面临着诸多挑战和问题,包括计算资源消耗大、高能耗、数据隐私和安全性、社会影响和偏见、可解释性差、对数据依赖性强和对环境的影响等。这些问题需要在模型设计、训练和应用过程中得到充分考虑和解决。

参考:
https://github.com/km1994/LLMs_interview_notes

这篇关于大模型面试--大模型(LLMs)基础面的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/999612

相关文章

RedHat运维-Linux文本操作基础-AWK进阶

你不用整理,跟着敲一遍,有个印象,然后把它保存到本地,以后要用再去看,如果有了新东西,你自个再添加。这是我参考牛客上的shell编程专项题,只不过换成了问答的方式而已。不用背,就算是我自己亲自敲,我现在好多也记不住。 1. 输出nowcoder.txt文件第5行的内容 2. 输出nowcoder.txt文件第6行的内容 3. 输出nowcoder.txt文件第7行的内容 4. 输出nowcode

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

Vim使用基础篇

本文内容大部分来自 vimtutor,自带的教程的总结。在终端输入vimtutor 即可进入教程。 先总结一下,然后再分别介绍正常模式,插入模式,和可视模式三种模式下的命令。 目录 看完以后的汇总 1.正常模式(Normal模式) 1.移动光标 2.删除 3.【:】输入符 4.撤销 5.替换 6.重复命令【. ; ,】 7.复制粘贴 8.缩进 2.插入模式 INSERT

Java面试八股之怎么通过Java程序判断JVM是32位还是64位

怎么通过Java程序判断JVM是32位还是64位 可以通过Java程序内部检查系统属性来判断当前运行的JVM是32位还是64位。以下是一个简单的方法: public class JvmBitCheck {public static void main(String[] args) {String arch = System.getProperty("os.arch");String dataM

零基础STM32单片机编程入门(一)初识STM32单片机

文章目录 一.概要二.单片机型号命名规则三.STM32F103系统架构四.STM32F103C8T6单片机启动流程五.STM32F103C8T6单片机主要外设资源六.编程过程中芯片数据手册的作用1.单片机外设资源情况2.STM32单片机内部框图3.STM32单片机管脚图4.STM32单片机每个管脚可配功能5.单片机功耗数据6.FALSH编程时间,擦写次数7.I/O高低电平电压表格8.外设接口

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

ps基础入门

1.基础      1.1新建文件      1.2创建指定形状      1.4移动工具          1.41移动画布中的任意元素          1.42移动画布          1.43修改画布大小          1.44修改图像大小      1.5框选工具      1.6矩形工具      1.7图层          1.71图层颜色修改          1

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

C++面试八股文:std::deque用过吗?

100编程书屋_孔夫子旧书网 某日二师兄参加XXX科技公司的C++工程师开发岗位第26面: 面试官:deque用过吗? 二师兄:说实话,很少用,基本没用过。 面试官:为什么? 二师兄:因为使用它的场景很少,大部分需要性能、且需要自动扩容的时候使用vector,需要随机插入和删除的时候可以使用list。 面试官:那你知道STL中的stack是如何实现的吗? 二师兄:默认情况下,stack使

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多