论文阅读笔记:DepGraph: Towards Any Structural Pruning

2024-06-15 12:52

本文主要是介绍论文阅读笔记:DepGraph: Towards Any Structural Pruning,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

论文阅读笔记:DepGraph: Towards Any Structural Pruning

  • 1 背景
  • 2 创新点
  • 3 方法
  • 4 模块
    • 4.1 分组
    • 4.2 依赖图
    • 4.3 网络分解
    • 4.4 依赖建模
    • 4.4 组级剪枝
  • 5 效果

论文:https://arxiv.org/pdf/2301.12900

代码:https://github.com/VainF/Torch-Pruning

1 背景

主流的剪枝方法可以被分为结构化剪枝和非结构化剪枝。两者的核心区别在于,结构化剪枝通过物理地移除分组参数来改变神经网络的结构,而非结构化剪枝在不修改网络结构的情况下,对部分权重进行归零。相比于非结构化剪枝,结构化剪枝不太以来特定的AI加速器或者软件来减少内存消耗和计算成本,从而在实际应用中找到更广泛的应用领域。

在这里插入图片描述

模型剪枝根据粒度的不同,至少可以粗分为4个粒度:

1.细粒度剪枝(fine-grained):即对连接或者神经元进行剪枝,它是粒度最小的剪枝。
2.向量剪枝(vector-level):它相对于细粒度剪枝粒度更大,属于对卷积核内部(intra-kernel)的剪枝。
3.核剪枝(kernel-level):即去除某个卷积核,它将丢弃对输入通道中对应计算通道的响应。
4.滤波器剪枝(Filter-level):对整个卷积核组进行剪枝,会造成推理过程中输出特征通道数的改变。

细粒度剪枝(fine-grained),向量剪枝(vector-level),核剪枝(kernel-level)方法在参数量与模型性能之间取得了一定的平衡,但是网络的拓扑结构本身发生了变化,需要专门的算法设计来支持这种稀疏的运算,被称之为非结构化剪枝。
而滤波器剪枝(Filter-level)只改变了网络中的滤波器组和特征通道数目,所获得的模型不需要专门的算法设计就能够运行,被称为结构化剪枝。除此之外还有对整个网络层的剪枝,它可以被看作是滤波器剪枝(Filter-level)的变种,即所有的滤波器都丢弃。

参考:

https://www.jianshu.com/p/8e1209d3127a

https://zhuanlan.zhihu.com/p/613899881

https://blog.csdn.net/baidu_38262850/article/details/125101878

然而,结构化剪枝本身的性质使其本身成为一项具有挑战性的任务,特别是对于具有耦合和复杂内部结构的现代深度神经网络。其原理在于,深度神经网络建立在卷积、归一化或激活等大量基本模块的基础上,而这些模块,无论参数化与否,都通过错综复杂的连接内在耦合。因此,即使试图从CNN中只删除一个通道,都必须同时照顾到它对所有层的相互依赖关系,否则最终会得到一个破碎的网络。准确地说,残差链接要求两个卷积层的输出共享相同的通道,从而迫使他们一起被剪枝。如图1所示,在其他架构,如transformers,RNNs和GNNs上也是如此。
在这里插入图片描述

现有的结构化剪枝方法在很大程度上依赖于逐个案例分析来处理网络中的依赖关系,尽管取得了较好的结构,但这种方式是费力且不具有推广性的。

在本文中,作者为任意结构化剪枝寻求了一个通用方案,其中任意网络架构上的剪枝都是自动执行的。方法的核心是估计依赖图(Dependency Graph, DepGraph),它显式地建模了神经网络中成对层之间的相互依赖关系。引入DepGraph进行结构化剪枝的动机源于观察到,一层的结构化剪枝有效地"触发"了相邻层的剪枝,这进一步导致了类似{ B N 2 ← C o n v 2 → B N 1 → C o n v 1 BN_2←Conv_2→BN_1→Conv_1 BN2Conv2BN1Conv1 }的链式效应,如图1 ( a )所示。

另外,值得注意的是,在结构化剪枝中,同时对分组层进行剪枝,期望同一组中所有被移除的参数始终保持不重要,但由于其他层参数的纠缠,单层中参数的重要性不会被正确的显示出来。为了解决这个问题,作者充分利用DepGraph提供的依赖建模的综合能力,设计了一个“组级别”的重要性准则,该准则学习组内一致的稀疏性,从而可以安全地删除那些零化的组,而不会带来太大的性能损失。

有很多剪枝方法的思路都是在指定范围内用某种方式表示权重,并将其进行从小到大的排序,将小于某一滤值的元素置为0,然后将是0的剪枝掉。

如用于结构化剪枝算法的L2Filter Pruner,使用L2范数来对权重矩阵进行排序,并删除排列最末的 k%。权重越稀疏,排名越靠后。

例如本文代码:

https://github.com/VainF/Torch-Pruning/blob/master/torch_pruning/pruner/importance.py#L194

local_imp = w.abs().pow(self.p).sum(1) # self.p = 2

https://github.com/VainF/Torch-Pruning/blob/master/torch_pruning/pruner/algorithms/metapruner.py#L532

_pruning_indices = (imp <= thres).nonzero().view(-1)
imp_argsort = torch.argsort(imp)
if len(_pruning_indices)>0 and self.round_to: n_pruned = len(_pruning_indices)current_channels = get_channel_fn(module)n_pruned = self._round_to(n_pruned, current_channels, self.round_to)pruning_indices = imp_argsort[:n_pruned]
pruning_indices.append(_pruning_indices)

2 创新点

针对任何结构化剪枝的通用剪枝方案,称为依赖图( Dependency Graph,DepGraph ),它允许自动参数分组,并有效地提高了结构化剪枝在各种网络架构上的泛化性,包括CNN、RNN、GNN和Vision Transformers。

3 方法

在这里插入图片描述
本文工作专注于在参数依赖的限制下对任何神经网络进行结构化剪枝。

如图2(a)所示,从3个全连接层组成的神经网络开始,分别用二维权重矩阵 w l w_l wl w l + 1 w_{l+1} wl+1 w l + 2 w_{l+2} wl+2 进行参数化。这种简单的神经网络可以通过去除神经元进行结构修剪。在这种情况下,很容易发现参数之间存在某种依赖关系,记为 w l ⇔ w l + 1 w_l⇔w_{l+1} wlwl+1,这迫使 w l w_l wl w l + 1 w_{l+1} wl+1 同时被剪枝。具体来说,为了修剪连接 w l w_l wl w l + 1 w_{l+1} wl+1 的第 k k k 个神经元, w l [ k , : ] w_l[k,:] wl[k,:] w l + 1 [ : , k ] w_{l+1}[:,k] wl+1[:,k] 都将被移除。

如图2(b-d)所示,这种依赖关系有很多种,以逐个案例的方式人工分析所有依赖关系是很难的,更不用说简单的依赖关系可以嵌套或组合形成更复杂的模式。为了解决结构化剪枝中的依赖问题,本文引入了依赖图( Dependency Graph ),为依赖建模提供了一种通用的、全自动的机制。

4 模块

4.1 分组

为了实现结构化剪枝,首先需要根据层的相关性对层进行分组。目标是找到一个分组矩阵 G ∈ R L × L G∈R^{L×L} GRL×L,其中L表示待剪枝网络的层数, G i j = 1 G_{ij}=1 Gij=1 表示第 i i i 层和第 j j j 层之间存在依赖关系。为了方便起见,令 D i a g ( G ) = 1 1 × L Diag(G) = 1^{1×L} Diag(G)=11×L以实现自依赖。利用分组矩阵,可以很直观地找到相关性到第 i i i 层的所有耦合层,记为 g ( i ) g(i) g(i)
在这里插入图片描述
然而,由于现代深度网络可能由数以千计的具有复杂连接的层组成,从而产生了一个庞大而复杂的分组矩阵G。这个矩阵中, G i j G_{ij} Gij 不仅由第 i i i 层和第 j j j 层决定,还受到他们之间的中间层的影响。因此这种非局部和隐式的关系在大多数情况下不能用简单地规则来处理。为了克服这一挑战,作者不直接估计分组矩阵G,而是提出了一种等价但易于估计的依赖建模方法,即依赖图(Dependency graph)。从依赖图中高效的导出G。

4.2 依赖图

首先考虑一个群 g = { w 1 , w 2 , w 3 } g=\{w_1, w_2, w_3\} g={w1,w2,w3},它具有依赖关系 w 1 ⇔ w 2 , w 2 ⇔ w 3 , w 1 ⇔ w 3 w_1⇔w_2, w_2⇔w_3,w_1⇔w_3 w1w2,w2w3,w1w3。在仔细观察这种依赖关系建模后,可以发现存在一些冗余。哟如,从 w 1 ⇔ w 2 , w 2 ⇔ w 3 w_1⇔w_2, w_2⇔w_3 w1w2,w2w3可以通过递归过程导出依赖关系 w 1 ⇔ w 3 w_1⇔w_3 w1w3。首先以 w 1 w_1 w1 为起点,考察它对其它层的依赖性,例如 w 1 ⇔ w 2 w_1⇔w_2 w1w2。然后, w 2 w_2 w2 为递归扩展依赖关系提供了新的起点,依赖关系触发 w 2 ⇔ w 3 w_2⇔w_3 w2w3。这个递归过程最终以一个传递关系 w 1 ⇔ w 2 ⇔ w 3 w_1⇔w_2⇔w_3 w1w2w3结束。在这种情况下,只需要两个依赖关系来描述组g中的关系。同样地,分组矩阵G对于依赖建模也是冗余的,因此可以压缩为具有更少边数的更紧凑的形式,同时保留相同的信息。作者证明了一个新的度量相邻层之间局部相关性的图 D,称为依赖图,可以对分组矩阵G进行有效的约减。依赖图与G的不同之处在于,它只记录了具有直接连接的相邻层之间依赖关系。图D可以看成是图G的可迁约化,它包含了图G相同的顶点但具有尽可能少的边。形式上,构造D使得对所有 G i j = 1 G_{ij}=1 Gij=1 在D中存在一条顶点 i i i j j j 之间的路径。因此 G i j G_{ij} Gij 可以通过检查D中顶点 i i i j j j 之间是否存在一条路径得到。

4.3 网络分解

然而,作者在实际构建依赖图时发现可能存在问题,因为一些基本层(如全连接层)可能由两种不同的剪枝方案,如之前讨论的 w [ k , : ] w[k,:] w[k,:] w [ : , k ] w[:,k] w[:,k] ,他们分别压缩了输入和输出的维度。此外,网络还包括跳跃连接等非参数化操作,这也会影响层与层之间的依赖关系。为了解决这些问题,作者将网络 F ( x ; w ) F(x;w) F(x;w) 分解成更精细和更基本的组件,记为 F = { f 1 , f 2 , … , f L } F=\{f_1, f_2, …, f_L\} F={f1,f2,,fL} ,其中每个组件 f f f 指的是参数化的层(如卷积)或非参数化的操作(如残差相加)。取代在层级别上建模关系,作者专注于层的输入和输出之间的依赖关系。具体的,将分量 f i f_i fi 的输入和输出分别记为 f i − f_i^- fi f i + f_i^+ fi+。对于任意网络,最终的分解可以形式化为 F = f 1 − , f 1 + , … , f L − , f L + F={f_1^-,f_1^+,…,f_L^-,f_L^+} F=f1,f1+,,fL,fL+。这种表示方法有利于更容易的依赖建模,并且允许对同一层采用不同的剪枝方案。

4.4 依赖建模

将神经网络重新绘制为式(2),其中可以识别出两种主要类型的依赖关系,即层间依赖和层内依赖,如下图所示:
在这里插入图片描述#pic_center

其中,↔ 表示相邻两层之间的连通性,对这两种依赖关系的检验可以得到简单但通用的依赖关系建模规则:

(1)层间依赖:在连接层 f i − ↔ f j + f_i^-↔f_j^+ fifj+中一致产生一个依赖 f i − ⇔ f j + f_i^-⇔f_j^+ fifj+

(2)层内依赖:如果 f i − f_i^- fi f i + f_i^+ fi+具有相同的剪枝方案,则存在依赖 f i − ⇔ f i + f_i^-⇔f_i^+ fifi+ ,记为 s c h ( f i − ) = s c h ( f i + ) sch(f_i^-)=sch(f_i^+) sch(fi)=sch(fi+)

首先,如果已知网络的拓扑结构,可以很容易地估计层间依赖。对于 f i − ↔ f j + f_i^-↔f_j^+ fifj+ 的连接层,由于 f i − f_i^- fi f j + f_j+ fj+ 对应网络相同的中间特征,因此依赖关系是始终存在。

其次,层内依赖要求对单层的输入和和输出同时进行剪枝,许多网络层满足这个条件,例如BN层,其输入和输出共享相同的剪枝方案,记作 s c h ( f i − ) = s c h ( f i + ) sch(f_i^-)=sch(f_i^+) sch(fi)=sch(fi+) ,将同时进行剪枝,如图3所示。相反,卷积等层对其输入和输出具有不同的剪枝方案,如图3所示, w [ : , k , : , : ] ≠ w [ k , : , : , : ] w[:,k,:,:]≠w[k,:,:,:] w[:,k,:,:]=w[k,:,:,:] ,导致 s c h ( f i − ) ≠ s c h ( f i + ) sch(f_i^-)≠sch(f_i^+) sch(fi)=sch(fi+),在这种情况下,卷积层的输入和输出之间不存在依赖。
在这里插入图片描述

给定上述规则,可以形式的建立如下依赖建模:
在这里插入图片描述

其中, ∧ ∧ ∨ ∨ 表示逻辑与和或, 1 1 1 是一个条件成立则返回True的指示器函数。第一项考察由网络连接引起的层间依赖,而第二项考察由层输入和输出之间的共享剪枝方案引入的层内依赖。值得注意的是,DepGraph 是一个对称矩阵,即 D ( f i − , f j + ) = D ( f j + , f i − ) D(f_i^-,f_j^+)=D(f_j^+,f_i^-) D(fi,fj+)=D(fj+,fi)。因此可以检查所有的输入输出对来估计依赖图。图3中可视化了具有残差连接的CNN块的依赖图。

算法1和算法2总结了依赖建模和分组的算法。
在这里插入图片描述
在这里插入图片描述

4.4 组级剪枝

评估分组参数的重要性对剪枝提出了重大挑战,因为它涉及了多个耦合层。这里,作者利用一个简单的基于范数的准则来建立一个实用的组级剪枝方法。给定一个参数组 g = { w 1 , w 2 , … w ∣ g ∣ } g=\{w_1,w_2,…w_{|g|}\} g={w1,w2,wg},现有的L2范数重要性准则 I ( w ) = ∣ ∣ w ∣ ∣ 2 I(w)=||w||_2 I(w)=∣∣w2可以对每个 w ∈ g w∈g wg 产生独立的评分。估计群体重要性的一个自然方法是计算一个综合得分 I ( g ) = ∑ w ∈ g I ( w ) I(g)=\sum_{w∈g}I(w) I(g)=wgI(w) ,不幸的是,不同层独立评估的重要性得分很可能是不可加的,因为分布和量级的差异而因此没有意义。为了使这种简单的聚合方式适用于重要性估计,作者提出了一种稀疏训练方法来稀疏化组级别的参数,如图4(c)所示,以便那些被零化的组可以安全的从网络中移除。
在这里插入图片描述
具体来所,对于每一个具有 K K K 个可剪枝维度的参数 w w w,作者引入了一个简单的用于稀疏训练的正则化项,定义为:
在这里插入图片描述
其中, I g , k = ∑ w ∈ g ∣ ∣ w [ k ] ∣ ∣ 2 2 I_{g,k}=\sum_{w∈g}||w[k]||_2^2 Ig,k=wg∣∣w[k]22 表示 第 k k k 个可剪枝维度的重要性, γ k \gamma_k γk 指的是应用于这些参数的缩放强度。作者使用一个可控的指数策略来确定 γ k \gamma_k γk 如下:
在这里插入图片描述
其中,收缩强度 α k \alpha_k αk 采用归一化分数来控制,其变化范围为 [ 2 0 , 2 α ] [2^0,2^\alpha] [20,2α]。在实验中 α = 4 \alpha=4 α=4。在稀疏训练之后,作者进一步使用了简单的相对得分 I ^ g , k = N ⋅ I g , k / ∑ { T o p N ( I g ) } \hat{I}_{g,k}=N·I_{g,k}/\sum\{TopN(I_g)\} I^g,k=NIg,k/{TopN(Ig)},用于识别和去除不重要的参数。

这里正则化的目的就是为了让成对的参数重要性都趋向于0。

稀疏训练过程如下:

for epoch in range(epochs):model.train()pruner.update_regularizer() # <== initialize regularizerfor i, (data, target) in enumerate(train_loader):data, target = data.to(device), target.to(device)optimizer.zero_grad()out = model(data)loss = F.cross_entropy(out, target)loss.backward() # after loss.backward()pruner.regularize(model) # <== for sparse trainingoptimizer.step() # before optimizer.step()

以out_channel为例,正则化过程如下(代码见https://github.com/VainF/Torch-Pruning/blob/master/torch_pruning/pruner/algorithms/group_norm_pruner.py#L126):

alpha=2**4
imp = self.estimate_importance(group).sqrt()
gamma = alpha**((imp.max() - imp) / (imp.max() - imp.min()))
for i, (dep, idxs) in enumerate(group):layer = dep.target.moduleprune_fn = dep.handlerif prune_fn in [function.prune_conv_out_channels,function.prune_linear_out_channels,]:root_idxs = group[i].root_idxs_gamma = torch.index_select(gamma, 0, torch.tensor(root_idxs, device=gamma.device))w = layer.weight.data[idxs]g = w * _gamma.view( -1, *([1]*(len(w.shape)-1)) )layer.weight.grad.data[idxs]+=self.reg * g  # self.reg = 1e-4

个人理解是通过以权重的反方向和损失一起更新梯度,不重要的权重因为没有loss的梯度,所以会朝权重的反方向更新,直到趋向于0,重要的权重因为会有loss的梯度,所以不会趋向于0。

5 效果

在CIFAR10上剪枝了一个ResNet56,在CIFAR100上剪枝了VGG19,效果如表1。
在这里插入图片描述
一致稀疏性对于结构剪枝非常重要,因为它迫使所有被剪枝的参数一致不重要。如图5中,将图4(c)和(b)中一致和不一致策略学习到分组参数的范数可视化,对应 w/和 w/o。容易发现,本文提出的方法在组水平上产生了强稀疏性,这有利于识别不重要的参数。(被剪枝后值变小)
在这里插入图片描述
为了进一步验证分组的有效性,分别测试:

(1)不分组:在单个卷积层上独立进行稀疏学习和重要性评估

(2)仅卷积分组:组内卷积层以一致的方式进行稀疏化。

(3)全分组:组内的所有参数层,包括卷积,BN,全连接等都一致稀疏化

结果如表2。
在这里插入图片描述

层稀疏度也是剪枝的一个重要因素,它决定了剪枝后神经网络的最终结构。表2提供了一些关于层稀疏性的结果。这项工作主要关注两种类型的稀疏性,即均匀稀疏性和学习稀疏性。在具有均匀稀疏性的情况下,将对不同层施加相同的剪枝比例,假设冗余通过网络均匀分布。然而,图5中先前的实验表明,不同的层并不等同于可剪枝的。在大多数情况下,学习到的稀疏性优于均匀稀疏性,尽管有时它可能会过度剪枝某些层,从而导致精度下降。

同时表2也证明了本文框架的可推广性。

由于分组参数过程十分复杂,对大型神经网络进行剪枝是一个相当大的挑战。然而,通过使用DepGraph,可以毫不费力地获得所有耦合组。在图6中提供了DenseNet121 ,ResNet18和Vision Transformers 的DepGraph D和衍生分组矩阵G的可视化。分组矩阵由算法2中的DepGraph导出,其中G[ i , j] = 1表示第i层与第j层属于同一组。DenseNet121在同一稠密块内的层与层之间表现出很强的相关性,导致结构修剪时产生较大的组。在处理复杂网络时,所提出的依赖图被证明在处理复杂网络时很有帮助,因为手动分析此类网络中的所有依赖关系确实是一项困难的任务。
在这里插入图片描述

表3为剪枝结果在ImageNet上的效果,包括ResNet, DenseNet, MobileNet, ResNeXt, and Vision Transformers。
在这里插入图片描述

表4在其他网络结构上的泛化性如表4。
在这里插入图片描述

这篇关于论文阅读笔记:DepGraph: Towards Any Structural Pruning的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1063508

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓