FinGPT——金融领域开源大模型

2024-01-28 20:40

本文主要是介绍FinGPT——金融领域开源大模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 背景
  • 论文摘要
  • 相关工作
    • 大型语言模型(LLMs)和ChatGPT
    • 金融领域的LLMs
    • 为什么需要开源的金融LLMs?
  • 以数据为中心的方法用于FinLLMs
    • 金融数据和独特特性
    • 应对处理金融数据的挑战
  • FINGPT 概述:FINLLM 的开源框架
    • 数据来源
    • 面向金融NLP的实时数据工程流程
    • 大型语言模型(LLM)
    • 应用
  • 结论
  • 未来工作

背景

FinGPT 是2023年6月哥伦比亚大学联合上海纽约大学推出全新大模型产品,这是一款面向金融领域的大模型产品。

论文:https://arxiv.org/abs/2306.06031
github:https://github.com/AI4Finance-Foundation/FinGPT

论文摘要

大型语言模型(LLMs)展示了在不同领域中革新自然语言处理任务的潜力,引发了金融领域的极大兴趣。获取高质量的金融数据是金融语言模型(FinLLMs)面临的首要挑战。虽然像BloombergGPT这样的专有模型利用了其独特的数据积累优势,但目前需要一些开源的替代方案,以实现互联网规模的金融数据的民主化。

在本文中,我们介绍了一个针对金融行业的开源大型语言模型FinGPT。与专有模型不同,FinGPT采用了以数据为中心的方法,为研究人员和实践者提供了可访问和透明的资源来开发他们的FinLLMs。我们强调了自动数据筛选流程和轻量级低秩适应技术在构建FinGPT中的重要性。此外,我们展示了一些潜在的应用,例如机器人顾问、算法交易和低代码开发。通过开源AI4Finance社区的协作努力,FinGPT旨在刺激创新,民主化FinLLMs,并在开放金融中开辟新的机会。两个相关的代码库分别是:https://github.com/AI4Finance-Foundation/FinGPT,https://github.com/AI4Finance-Foundation/FinNLP。

人工智能的持续扩展和演进为大型语言模型的普及提供了肥沃的土壤,从而在不同领域的自然语言处理中带来了一场变革性的转变。这一巨大的变化引发了人们对这些模型在金融领域潜在应用的浓厚兴趣。然而,很明显,获取高质量、最新的相关数据是开发高效的开源金融语言模型的关键因素

在金融领域利用语言模型面临着复杂的障碍。这些障碍包括获取数据的困难、处理多样化的数据格式和类型、处理数据质量的不一致性,以及对最新信息的基本需求。特别是,由于不同的数据介质,如Web平台、API、PDF文档和图像,历史或专业金融数据的提取变得复杂。

在专有领域,像BloombergGPT这样的模型利用其对专业数据的独占访问来训练针对金融领域的语言模型。然而,其数据收集和训练协议的限制性可访问性和透明性凸显了对更开放和包容性的替代方案的需求。为了满足这一需求,我们正在见证向开源领域中民主化互联网规模的金融数据的趋势转变。

在本文中,我们针对与金融数据相关的上述挑战,并介绍了一个名为FinGPT的端到端开源框架,用于构建金融领域的大型语言模型(FinLLMs)。FinGPT采用以数据为中心的方法,强调数据获取、清理和预处理在开发开源FinLLMs中的关键作用。通过倡导数据可访问性,FinGPT旨在促进金融领域的研究、协作和创新,为开放金融实践铺平道路。

我们的贡献总结如下:

民主化:作为一个开源框架,FinGPT旨在民主化金融数据和FinLLMs,揭示开放金融中未开发的潜力。

以数据为中心的方法:认识到数据筛选的重要性,FinGPT采用了以数据为中心的方法,并实施了严格的数据清理和预处理方法,以处理各种数据格式和类型,从而确保高质量的数据。

端到端框架:FinGPT采用了一个全面的框架,用于构建FinLLMs,包括四个层次:

(1)数据源层:该层确保全面的市场覆盖,并通过实时信息捕获来解决金融数据的时间敏感性。

(2)数据工程层:为实时NLP数据处理进行了优化,该层应对金融数据中的时间敏感性和低信噪比的固有挑战。

(3)LLMs层:该层专注于一系列的微调方法,减轻金融数据的高度动态性,确保模型的相关性和准确性。

(4)应用层:展示实际应用和演示,该层突出了FinGPT在金融领域的潜在能力。

相关工作

大型语言模型(LLMs)和ChatGPT

大型语言模型(LLMs)已被公认为自然语言处理的技术突破,例如GPT-3和GPT-4 。它们采用了基于Transformer的架构,在各种生成任务中展示出令人印象深刻的性能。

作为OpenAI开发的GPT系列的一个分支,ChatGPT旨在根据输入提示生成类似人类的文本。它在多种应用中展示了显著的实用性,从起草电子邮件到编写代码,甚至创建书面内容。

金融领域的LLMs

LLMs已被应用于金融领域的各种任务,从预测建模到从原始金融数据中生成富有见地的叙述。最近的文献专注于使用这些模型进行金融文本分析,因为金融领域存在大量的文本数据,如新闻文章、盈利电话会议记录和社交媒体帖子。

金融LLMs的第一个例子是BloombergGPT ,它是在金融和一般来源的混合数据集上进行训练的。尽管其具有令人印象深刻的能力,但存在访问限制,并且训练成本高昂,这促使我们需要低成本的领域自适应。

我们的FinGPT应对这些挑战,提出了一个开源的金融LLM。它采用人类反馈的强化学习(RLHF)来理解和适应个体偏好,为个性化的金融助手铺平了道路。我们的目标是将ChatGPT等通用LLMs的优势与金融自适应相结合,充分利用LLMs在金融领域的能力。

为什么需要开源的金融LLMs?

AI4Finance基金会是一个非营利性的开源组织,致力于将人工智能(AI)和金融应用集成在一起,包括金融大型语言模型(FinLLMs)。基金会在培育金融科技工具创新生态系统方面有着良好的记录,例如FinRL 和FinRL-Meta 。该基金会致力于加速金融LLMs的进一步发展。其坚定的承诺和尖端的贡献为人工智能在金融领域的变革性应用铺平了道路。

推动平等机会,通过民主化FinLLMs:采用开源方法促进对最先进技术的普遍访问,秉持民主化FinLLMs的理念。

培养透明度和信任:开源的FinLLMs提供了其基础代码的全面概述,增强了透明度和信任。

加速研究和创新:开源模型推动了人工智能领域的研发进展。研究人员可以利用现有模型,从而促进创新和科学发现的更快进展。

增强教育:开源的FinLLMs作为强大的教育工具,为学生和研究人员提供了通过与完全运行的模型直接互动来探索FinLLMs复杂性的机会。

促进社区发展和协作参与:开源促进了全球贡献者社区的形成。这种协作参与增强了模型的长期耐用性和效果。

以数据为中心的方法用于FinLLMs

对于金融大型语言模型(FinLLMs),成功的策略不仅仅依赖于模型架构的能力,而且同样依赖于训练数据。我们的数据中心方法优先考虑收集、准备和处理高质量的数据。

金融数据和独特特性

金融数据来自各种不同的来源,具有独特的特性。我们深入探讨了不同金融数据来源的具体细节,例如金融新闻、公司报告、社交媒体讨论和公司公告

金融新闻,提供了有关世界经济、特定行业和个别公司的重要信息。这种数据来源通常具有以下特点:

  • 及时性:金融新闻报道具有及时性和最新性,通常捕捉到金融世界中最近的发展动态。
  • 动态性:金融新闻中所包含的信息是动态变化的,会随着经济条件和市场情绪的演变而迅速变化。
  • 影响力:金融新闻对金融市场具有重大影响力,影响着交易员的决策,有可能导致剧烈的市场波动。

公司报告和公告,是企业向监管机构提交的官方文件,提供了有关公司的财务状况和战略方向的见解。这些文件具有以下特点:

  • 细节度:这些文件提供了关于公司财务状况的详细信息,包括资产、负债、收入和盈利能力等方面的数据。
  • 可靠性:公司报告包含由监管机构审核的可靠和经过验证的数据。
  • 周期性:公司报告是周期性的,通常每季度或每年提交一次,定期提供公司财务状况的快照。
  • 影响力:公司公告常常对市场产生重大影响,影响股价和投资者情绪。

与金融相关的社交媒体讨论,可以反映公众对特定股票、行业或整体市场的情绪。这些讨论往往呈现出以下特点:

  • 多样性:社交媒体讨论在语调、内容和质量上差异很大,因此它们是丰富而复杂的信息源。
  • 实时情绪:这些平台通常能够捕捉到实时的市场情绪,可以检测到公众舆论的趋势和变化。
  • 波动性:在社交媒体上表达的情绪可以非常波动,对新闻事件或市场变动作出迅速反应。

趋势,往往可以通过像Seeking Alpha、Google Trends和其他面向金融的博客和论坛等网站观察到,它们提供了对市场动向和投资策略的关键见解。它们具有以下特点:

  • 分析师观点:这些平台提供了来自经验丰富的金融分析师和专家的市场预测和投资建议。
  • 市场情绪:这些平台上的讨论可以反映出对特定证券、行业或整体市场的集体情绪,为了解当前市场情绪提供了宝贵的见解。
  • 广泛覆盖:趋势数据涵盖了多样的证券和市场领域,提供了全面的市场覆盖。

每个数据来源都提供了对金融世界的独特见解。通过整合这些多样化的数据类型,像FinGPT这样的金融语言模型可以促进对金融市场的全面理解,并支持有效的金融决策。

应对处理金融数据的挑战

我们将处理金融数据面临的三个主要挑战总结如下:

高度的时间敏感性:金融数据具有高度的时间敏感性。市场影响力的新闻或更新一经发布,投资者仅有短暂的时间窗口来最大化他们的α值(衡量投资相对回报的指标)。

高度的动态性:金融领域不断演变,每天都有大量的新闻、社交媒体帖子和其他与市场相关的信息涌现。频繁重新训练模型以适应这些变化是不现实且成本高昂的。

低信噪比:金融数据通常表现出较低的信噪比,这意味着有用的信息往往被大量的无关或噪音数据所淹没。从这些海量信息中提取有价值的见解需要先进的技术手段。

解决这些挑战对于有效利用财务数据和最大限度地发挥FinLLMs的潜力至关重要。

FINGPT 概述:FINLLM 的开源框架

在这里插入图片描述
FinGPT代表了一个创新的开源框架,专门用于在金融领域应用大型语言模型(LLMs)。如图1所示,FinGPT由四个基本组件组成:数据源、数据工程、LLMs和应用程序。每个组件在维护FinGPT的功能和适应性方面发挥着关键作用,以应对动态的金融数据和市场状况。

数据源层:FinGPT流程的起点是数据源层,该层协调从各种在线来源获取广泛的金融数据。通过整合来自新闻网站、社交媒体平台、财务报表、市场趋势等数据,确保全面的市场覆盖。目标是捕捉市场的每一个细微差别,从而应对金融数据固有的时间敏感性。

数据工程层:该层专注于实时处理自然语言处理(NLP)数据,以解决金融数据中的高时间敏感性和低信噪比的挑战。它采用最先进的NLP技术来过滤噪声并突出最重要的信息。

LLMs层:作为核心层,它涵盖了各种微调方法,重点是轻量级调整,以保持模型的更新和相关性。通过保持更新的模型,FinGPT可以处理高度动态的金融数据,确保其回应与当前的金融环境保持一致。

应用程序层:FinGPT的最后一个组件是应用程序层,旨在展示FinGPT的实际应用性。它提供金融任务的实践教程和演示应用程序,包括机器人顾问服务、量化交易和低代码开发。这些实际演示不仅为潜在用户提供指导,还强调了LLMs在金融领域的变革潜力。

数据来源

FinGPT的第一个阶段涉及从各种在线来源收集广泛的金融数据。这些来源包括但不限于:

金融新闻:诸如路透社、CNBC、雅虎财经等网站是丰富的金融新闻和市场更新的来源。这些网站提供有关市场趋势、公司收益、宏观经济指标和其他金融事件的宝贵信息。

社交媒体:Twitter、Facebook、Reddit、微博等平台提供了大量关于公众情绪、热门话题和对金融新闻和事件的即时反应的信息。

报告文件:金融监管机构的网站,如美国证券交易委员会(SEC),提供公司报告文件的访问。这些报告文件包括年度报告、季度盈利报告、内幕交易报告和其他重要的公司特定信息。证券交易所的官方网站(如纽约证券交易所、纳斯达克、上海证券交易所等)提供了关于股票价格、交易量、公司上市、历史数据和其他相关信息的重要数据。

趋势数据:网站,如Seeking Alpha、Google Trends和其他金融专注的博客和论坛,提供分析师的观点、市场预测、特定证券或市场领域的动态以及投资建议。

学术数据集:提供经过精心策划和验证的信息,用于复杂的金融分析的基于研究的数据集。
为了利用这些多样化数据源的丰富信息,FinGPT采用了能够从结构化和非结构化数据中进行数据获取的工具,包括API、网络抓取工具和直接访问数据库(如果可用)。此外,系统设计旨在遵守这些平台的服务条款,确保数据收集是合法和合规的。

数据API:在FinGPT框架中,API不仅用于初始数据收集,还用于实时数据更新,确保模型训练使用的是最新的数据。此外,实施了错误处理和速率限制策略,以尊重API的使用限制,并避免数据流中的中断。

面向金融NLP的实时数据工程流程

金融市场实时运作,对新闻和情绪高度敏感。证券价格可以因为新信息的出现而迅速变动,而处理信息的延迟可能导致错失机会或增加风险。因此,在金融NLP中,实时处理至关重要。

实时NLP流程的主要挑战在于高效管理和处理持续涌入的数据。流程的第一步是建立一个系统来实时接收数据。这些数据可以从我们的数据源API中实时获取。下面是设计数据获取的实时NLP流程的步骤:

数据清洗:实时数据可能含有噪声和不一致性。因此,实时数据清洗包括删除不相关的数据、处理缺失值、文本归一化(如转换为小写)和错误纠正。

分词:在实时应用中,需要即时进行分词。这涉及将文本流分解为更小的单元或标记。
停用词去除和词干提取/词形还原:对于实时处理,可以使用预定义的停用词列表从标记流中过滤掉这些常见词。同样,可以应用词干提取和词形还原技术将单词缩减为其词根形式。

特征提取和情感分析:特征提取涉及将原始数据转化为机器学习模型可理解的输入。在实时系统中,这通常需要是一个快速高效的过程。可以使用TF-IDF、词袋模型或嵌入向量(如Word2Vec)等技术。还可以对清洗后的数据进行情感分析,将文本片段分类为积极、消极或中性。

提示工程:创建有效的提示,以指导语言模型生成期望的输出。
警报/决策制定:一旦输入提示,需要将结果传达或采取相应行动。这可能涉及根据特定条件触发警报、通知实时决策过程或将输出输入到另一个系统中。

持续学习:在实时系统中,模型应该能够适应数据的变化。可以实现持续学习系统,定期使用新数据对模型进行重新训练,或使用在线学习算法,每个新数据点都可以更新模型。

监控:实时系统需要持续监控,以确保其正常运行。流程中的任何延迟或问题都可能产生即时影响,因此重要的是建立强大的监控和警报机制。

大型语言模型(LLM)

一旦数据被正确准备好,就可以与LLM一起用于生成有洞察力的金融分析。LLM层包括:

LLM API:来自已建立的LLM的API提供基本的语言功能。

可训练模型:FinGPT提供可训练的模型,用户可以在其私有数据上进行微调,以定制金融应用。

微调方法:各种微调方法使得FinGPT能够适应个性化的机器顾问。

为什么要对LLM进行微调而不是从头开始重新训练?

利用现有的大型语言模型(LLM)并对其进行微调,为金融领域提供了一种高效、经济实惠的替代方案,避免了昂贵且耗时的从头训练模型的成本。

虽然BloombergGPT在金融特定能力方面非常出色,但它需要大量计算资源。它的训练过程大约使用了130万个GPU小时,根据AWS云计算的2.3美元费率计算,训练成本惊人地高达约300万美元。与BloombergGPT等高计算成本模型相比,FinGPT通过专注于对顶级开源LLM的轻量级调整,提供了一种更为可行的解决方案。调整的成本大大降低,估计每次训练不到300美元。

这种方法确保了及时的更新和适应性,这在不断变化的金融领域中至关重要。作为开源项目,FinGPT不仅促进了透明度,还允许用户进行定制,迎合了个性化金融咨询服务的兴起趋势。最终,FinGPT的经济实惠、灵活的框架有潜力实现金融语言建模的民主化,并促进以用户为中心的金融服务。

通过低秩适应(LoRA)进行微调

在FinGPT中,我们利用一份新颖的金融数据集对预训练的LLM进行微调。众所周知,高质量的标注数据对于许多成功的LLM(包括ChatGPT)至关重要。然而,获取这种顶级标注数据往往在时间和资源上代价高昂,并且通常需要金融专业人士的专业知识。

如果我们的目标是利用LLM来分析与金融相关的文本数据,并在量化交易中提供帮助,那么充分利用市场固有的标注能力似乎是明智的选择。因此,我们使用每条新闻项的相对股价变动百分比作为输出标签。我们根据新闻项的情感将这些标签划分为三个类别——正面、负面和中性,并建立了阈值。

在相应的提示工程过程中,我们还提示模型从正面、负面和中性输出中选择一个。这种策略确保了对预训练信息的最佳利用。通过使用LLM的低秩适应(LoRA),我们将可训练参数的数量从61.7亿减少到仅仅367万。

通过股票价格的强化学习(RLSP)进行微调

类似地,我们可以将股票价格的强化学习(RLSP)替代ChatGPT中的人类反馈强化学习。这种替代的原因在于,股票价格提供了一个可量化、客观的度量标准,反映了市场对新闻和事件的情绪。这使得股票价格成为我们训练模型的一个强大、实时的反馈机制。

强化学习(RL)允许模型通过与环境的交互和接收反馈来学习。在RLSP的情况下,环境是股票市场,反馈以股票价格的变动形式提供。这种方法使得FinGPT能够改进其对金融文本的理解和解读,提高其预测市场对各种金融事件的响应能力。通过将新闻情绪与相关股票的后续表现联系起来,RLSP提供了一种有效的微调FinGPT的方式。实质上,RLSP使得模型能够推断市场对不同新闻事件的反应,并相应地调整其理解和预测。

因此,将RLSP集成到FinGPT的微调过程中为改进模型对金融市场的理解和预测准确性提供了强大的工具。通过使用实际股票价格的变动作为反馈,我们直接利用市场的智慧来使我们的模型更加有效。

应用

FinGPT可以在金融服务领域广泛应用,帮助专业人士和个人做出明智的金融决策。潜在的应用包括:

机器顾问:提供个性化的财务建议,减少常规面对面咨询的需求。

量化交易:为明智的交易决策提供交易信号。

投资组合优化:利用众多经济指标和投资者资料构建最佳投资组合。

金融情绪分析:评估不同金融平台上的情绪,提供深入的投资指导。

风险管理:通过分析各种风险因素制定有效的风险策略。

金融欺诈检测:识别潜在的欺诈交易模式,提升金融安全性。

信用评分:根据金融数据预测信用状况,帮助贷款决策。

破产预测:基于财务和市场数据预测公司的潜在破产或破产。

并购预测:通过分析财务数据和公司概况预测潜在的并购活动,帮助投资者预测市场动向。

ESG(环境、社会、治理)评分:通过分析公共报告和新闻文章评估公司的ESG评分。

低代码开发:通过用户友好的界面促进软件的创建,减少对传统编程的依赖。

金融教育:作为人工智能导师,简化复杂的金融概念,提高金融素养。

通过连接这些独立但相互关联的组件,FinGPT为在金融领域利用人工智能提供了一种全面和可行的解决方案,促进了金融行业中的研究、创新和实际应用。

结论

综上所述,将大型语言模型(LLMs)与金融领域进行深度融合带来了独特的复杂性和广阔的机遇。在金融数据中,高时间敏感性、动态的金融环境以及低信噪比等挑战需要高效的解决方案。FinGPT通过利用现有的LLMs并对其进行细化调整以适用于特定的金融应用,以创新的方式应对这些挑战。与BloombergGPT等模型相比,这种方法显著降低了适应成本和计算需求,为金融语言建模提供了更加可访问、灵活和具有成本效益的解决方案。因此,它能够持续更新以确保模型的准确性和相关性,这在动态和时间敏感的金融世界中至关重要。

未来工作

金融大型语言模型(FinLLMs)展示了未来的愿景,即个性化的机器人顾问或助手将成为每个人的选择。它旨在实现对高质量金融建议的民主化访问,利用先进的语言建模技术理解大量的金融数据,并将其转化为可操作的洞察力。以下蓝图概述了FinLLM未来的发展方向:

个性化:FinLLM战略的核心是个性化微调的概念。通过使用LoRA和QLoRA等技术,FinLLM使用户能够根据其特定需求定制模型,从而创建个人化的机器人顾问或助手。这与金融服务领域的定制化趋势相一致,因为消费者越来越需要与其独特的风险配置和财务目标相符的个性化建议。

开源和低成本适应:FinLLM倡导开源价值观,以低成本(通常在100到300美元之间)为用户提供将大型语言模型(LLMs)适应到其需求的工具。这不仅使得先进的金融建模技术民主化,还培育了一个充满活力的开发者和研究者社区,共同推动金融人工智能领域的发展。

获取高质量的金融数据:FinLLM不仅提供建模技术,还提供高质量的金融数据。这确保用户拥有有效训练模型所需的数据,同时简化数据整理过程。此外,通过提供带演示的数据整理流程,进一步增强了用户利用其金融数据的潜力。

这篇关于FinGPT——金融领域开源大模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/654725

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

金融业开源技术 术语

金融业开源技术  术语 1  范围 本文件界定了金融业开源技术的常用术语。 本文件适用于金融业中涉及开源技术的相关标准及规范性文件制定和信息沟通等活动。

安全管理体系化的智慧油站开源了。

AI视频监控平台简介 AI视频监控平台是一款功能强大且简单易用的实时算法视频监控系统。它的愿景是最底层打通各大芯片厂商相互间的壁垒,省去繁琐重复的适配流程,实现芯片、算法、应用的全流程组合,从而大大减少企业级应用约95%的开发成本。用户只需在界面上进行简单的操作,就可以实现全视频的接入及布控。摄像头管理模块用于多种终端设备、智能设备的接入及管理。平台支持包括摄像头等终端感知设备接入,为整个平台提