首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
megatron专题
Megatron 自然语言处理实战指南
这个项目的Table of Contents(目录)提供了一个全面的指南,涵盖了Megatron及其相关工具、技术和应用的多个方面。以下是各部分的简要介绍: 1. Megatron Overview(Megatron概述) 本部分介绍Megatron项目的总体情况,包括其目标、特点以及在大规模语言模型训练中的应用。 2. Megatron-LM Megatron-LM是Megatron中
阅读更多...
基于torch_dispatch机制生成Megatron-DeepSpeed调用关系图
基于torch_dispatch机制生成Megatron-DeepSpeed调用关系图 一.局部效果图二.运行训练过程,拦截算子,生成调用关系信息三.可视化,生成SVG图像 想知道Megatron-DeepSpeed训练过程中各模块之间的调用关系。torch_dispatch机制可以拦截算子,inspect又能获取到调用栈(文件,类名,函数,行号).基于这些信息可以生成调用关系,最
阅读更多...
Megatron-LM 验证1F1B interleaved的效果
Megatron-LM 验证1F1B interleaved的效果 1.创建容器2.安装Megatron-LM,准备数据集3.准备解析脚本4.PP4测试5.PP4 VP2 测试6.NCCL带宽测试 本文测试1F1B interleaved是否能挤掉空泡。因为所用的服务器不支持P2P,且PCIE为GEN1 X16 NCCL all_reduce_perf测试的性能仅为1.166GB
阅读更多...
Megatron-LM源码系列(七):Distributed-Optimizer分布式优化器实现Part2
1. 使用入口 DistributedOptimizer类定义在megatron/optimizer/distrib_optimizer.py文件中。创建的入口是在megatron/optimizer/__init__.py文件中的get_megatron_optimizer函数中。根据传入的args.use_distributed_optimizer参数来判断是用DistributedOpti
阅读更多...
[论文笔记] PAI-Megatron 源码解读之Mistral的滑动窗口sliding window
这段代码是 _make_causal_mask 函数中处理滑动窗口局部注意力的部分。这里的目的是创建一个额外的掩码,以便在自注意力机制中只考虑每个位置附近的一定数量的位置,而不是所有之前的位置。这通常用于减少计算复杂性和提高长序列处理的效率。 代码分析如下: diagonal = past_key_values_length - sliding_window
阅读更多...
Megatron模型并行研究
Megatron模型并行研究 1. 技术调研 a. Megatron-LM Megatron-LM针对的是特别大的语言模型,使用的是模型并行的训练方式。但和普通的模型并行不同,他采用的其实是张量并行的形式,具体来说就是将一个层切开放到不同的GPU上,属于层切的方法,是一种层内的模型并行。 除了张量并行外,Megatron-LM也提供了流水线并行的模型训练形式。流水线并行水平划分模型,按照层
阅读更多...
megatron解读
https://zhuanlan.zhihu.com/p/634377071?utm_id=0
阅读更多...
Megatron-LM GPT 源码分析(三) Pipeline Parallel分析
引言 本文接着上一篇【Megatron-LM GPT 源码分析(二) Sequence Parallel分析】,基于开源代码 GitHub - NVIDIA/Megatron-LM: Ongoing research training transformer models at scale ,通过GPT的模型运行示例,从三个维度 - 模型结构、代码运行、代码逻辑说明 对其源码做深入的分析。
阅读更多...
Megatron-LM GPT 源码分析(三) Pipeline Parallel分析
引言 本文接着上一篇【Megatron-LM GPT 源码分析(二) Sequence Parallel分析】,基于开源代码 GitHub - NVIDIA/Megatron-LM: Ongoing research training transformer models at scale ,通过GPT的模型运行示例,从三个维度 - 模型结构、代码运行、代码逻辑说明 对其源码做深入的分析。
阅读更多...
Megatron-LM GPT 源码分析(二) Sequence Parallel分析
引用 本文基于开源代码 https://github.com/NVIDIA/Megatron-LM ,延续上一篇Megatron-LM GPT 源码分析(一) Tensor Parallel分析 通过对GPT的模型运行示例,从三个维度 - 模型结构、代码运行、代码逻辑说明 对其源码做深入的分析。 Sequence Parallel 源码分析
阅读更多...