OpenMMLab【超级视客营】——支持InverseForm Loss(MMSegmentation的第三个PR)

本文主要是介绍OpenMMLab【超级视客营】——支持InverseForm Loss(MMSegmentation的第三个PR),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 1. 任务目标
    • 1.1 issue
    • 1.2 原理相关资料(论文讲解)
      • InverseForm
      • STN(Spatial Transformer Networks)
    • 1.3 实现相关资料(相关PR)
  • 2. 理解原理
  • 3. 代码实现
    • 3.X checklist
    • 3.0 Issue中的有效内容
    • 3.1 MMSegmentation支持multiple loss
    • 3.2 北京超级云计算中心-环境配置
    • 3.3 创建分支
    • 3.4 执行官方repo的推理
    • 3.5 自己写代码
    • 3.6 报错 ImportError: cannot import name 'InverseFormLoss' from 'mmseg.models.losses'
    • 3.7 RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False. If you are running on a CPU-only machine, please use torch.load with map_location=torch.device('cpu') to map your storages to the CPU.
    • 3.8 pytest.raises Failed: DID NOT RAISE with try/except
    • 3.9 构建文档报错
    • 3.10 提交的PR conflict

1. 任务目标

时间:8.3~8.31

1.1 issue

  • 提出需求的 issue: https://github.com/open-mmlab/mmsegmentation/issues/3159
  • 参考 repo : https://github.com/Qualcomm-AI-research/InverseForm,用到的文件:
    • https://github.com/NVIDIA/semantic-segmentation/blob/main/network/attnscale.py
    • https://github.com/zijundeng/pytorch-semantic-segmentation/tree/master/utils
  • 参考论文:https://arxiv.org/abs/2104.02745
  • 论文Appendix:https://openaccess.thecvf.com/content/CVPR2021/supplemental/Borse_InverseForm_A_Loss_CVPR_2021_supplemental.pdf
  • discussions:https://github.com/open-mmlab/OpenMMLabCamp/discussions/522

1.2 原理相关资料(论文讲解)

InverseForm

  • 【论文笔记】InverseForm: A Loss Function for Structured Boundary-Aware Segmentation
  • InverseForm:结构边缘感知的损失函数
  • 【图像分割】InverseForm: A Loss Function for Structured Boundary-Aware Segmentation
  • Transformer在3D语义分割中的应用
  • 碎碎念:B站上好像也没有讲这个论文的教程,是因为很简单吗?

STN(Spatial Transformer Networks)

理论上来说,InverseForm所依赖的网络是STN的逆操作

  • 李宏毅老师的视频:Spatial Transformer Networks
  • STN(Spatial Transformer Networks)
  • Spatial Transformer Networks(STN)详解
    • pytorch的教程:https://pytorch.org/tutorials/intermediate/spatial_transformer_tutorial.html
    • 这两个的代码实现是类似的
    • github上也有相关的repo:https://github.com/fxia22/stn.pytorch
  • Spatial Transformer Networks,这个人的专栏写的很好,可以参考学习
  • 大学课件pdf:Spatial Transformer Networks
  • Review: STN — Spatial Transformer Network (Image Classification)

1.3 实现相关资料(相关PR)

  • https://github.com/open-mmlab/mmsegmentation/pull/3242
  • https://github.com/open-mmlab/mmsegmentation/pull/3237/files
  • https://github.com/open-mmlab/mmsegmentation/pull/3002/files#diff-6b13122fc8d4a0c49faf7c7052dbf6ff6e9287d96ecf84f1f7d3959c935b0348
  • https://github.com/open-mmlab/mmsegmentation/pull/2791/files

根据以上PR,确定要改的文件是:

  • mmsegmentation/mmseg/models/losses
  • mmsegmentation/tests/test_models/test_losses/
    • 关于单元测试,除了看现有脚本,也可以看看这个教程,单元测试贡献指南(建设中)

2. 理解原理

3. 代码实现

源码中最重要的几个文件:

  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/InverseForm.py
  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/loss/utils.py
  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/utils/trnval_utils.py,训练时很多内容是参考了这两个项目,代码是直接搬过来的,没有修改。
    • NVIDIA的项目:https://github.com/NVIDIA/semantic-segmentation/blob/main/network/attnscale.py

3.X checklist

  • 实现inverseformloss
  • inverseformloss的单元测试
  • 提供一个整合了inverseformloss架构的分割网络,初步定为orcnet

3.0 Issue中的有效内容

2021年论文刚发布的时候很多issue是回复了,后面的就没有什么回复了。。。还是有一些是有价值的信息。

Design question #6

  • 问: 为什么b_gt是通过对真实seg图像进行sobel处理得到,而b_pred不是通过类似方式,即对预测seg图像进行sobel处理得到?
  • 答:不好收敛,实验效果不好,所以采取了通过对预测seg添加约束,即将y_pred送入一个boundary head来生成b_pred

Questions about the test dataset #5

  • 问:训练时的edge_gts = inputs['edge']是怎么得到的
  • 答:是从y_gt中提取的,可以在gt map上使用sobel/laplacian,然后再threshold得到一个二值图。

Training the Inverseform Net on custom dataset #7

  • :为什么要对每个数据集分别训练InverseForm Net,数据集的边界变换的差异有这么大吗?
  • 答:一开始只是在Imagenet上训练了一个IF module,并将其用于所有的数据集,这个方式和现在论文里显示的对每个数据集都单独训练一个IF module效果是类似的。
    坚持当前的策略(在同一数据集上进行训练):是为了说明改进并非来自辅助数据集(Imagenet)
    因此,实际使用的时候,可以用任意一个数据集训练的IF module
  • :Imagenet没有提供b_gt(边界map),你是如何在ImageNet上训练IF module的呢
  • 答:可以直接从seg mask提取,或者直接从原图提取也可以
  • :如何得到 transformed GT masks,STN的pipeline是什么
  • 答:直接用pytorch的STN: https://pytorch.org/tutorials/intermediate/spatial_transformer_tutorial.html
  • :在单个数据集上训练的IF module,当插入分割网络后,可以适应不同数据集的边缘map的单应性变换?
  • 答:我们的实验和观测结果是支持这个观点的

Two confusions about the code #1

  • 问:按照论文,InverseFormNet应该会输出6个或者8个值,但是代码里实际只输出了4个值,这4个值代表什么?
  • 答:上传的是最近开发的InverseFormNet的轻量化版本,输出的4个值是normalized后的shift和scale,提供的代码里使用的是Euclidian距离。你也可以按照论文里说的用欧氏距离的6个参数或者测地距离的8个参数随意进行实验,在使用测地距离的时候,确实会有搜索空间受到严重限制的问题。

Confuse about predict scales and shifts and the loss #9

  • 问:上一个问题里提到InverseFormNet输出的四个参数分别是shift和scale,因此如果要优化InverseForm loss,应该是让scale接近1,让shift接近0,但是在InverseTransform2D的代码中,有mean_square_inverse_loss = (((distance_coeffs*distance_coeffs).sum(dim=1))**0.5).mean(),这会让4个值都朝着向0的方向优化。
  • 答:如果使用的损失函数是欧式距离,那么提前归一化,是为了减少对任意一个参数的偏差。
  • 这个问题不对,shift和scale参数可以放在一个 3 × 3 3\times 3 3×3的矩阵里,如果InverseFormNet输出的矩阵越靠近单位矩阵(预测的边界越接近真实边界),则预测的转换矩阵与单位矩阵相减之后,shift和scale减法之后那个位置的值都是朝着0优化的

3.1 MMSegmentation支持multiple loss

  • How to combine multiple loss functions? #779
  • Docs > Basic Concepts > Training Tricks Multiple Losses

3.2 北京超级云计算中心-环境配置

访问:https://cloud.blsc.cn,直接使用用户名密码无法成功登录,需要关注北京超级云计算中心,微信扫码登录,在微信的页面里填写邮件里给的用户和密码。

然后就可以看到控制台了,在资源管理->SSH直连管理中配置密钥或者密码
在这里插入图片描述
配置好之后,复制下面给的ssh命令,
在这里插入图片描述
可以视情况选择接入网络,我用Hong Kong不行,但是用Zhongwei可以

直接用vscode登录,打开文件夹,或者用MobaXTerm等你习惯的终端连接软件去ssh连接,输入密码就行(默认用户名已经@在了ssh命令中,你只需要输入你上面创建的密码的值即可)

配置python环境

# 查看可用软件
> module avail
[scw6886@ln01 run]$ module avail------------------------------------------------------------- /data/apps_4090/modulefiles -------------------------------------------------------------
alphafold/2.3.1                            gdb/7.6.1                                  openblas/0.3.22
amber/22_ambertools23                      go/1.18.2                                  opencv/3.4.16
anaconda/2020.11                           gromacs/2022.5_nompi_cuda11.8              opencv/4.5.5
anaconda/2021.05                           hdf5/1.12.1                                OpenMMLab/MMDetection3.1.0_py38
anaconda/2022.10                           hwloc/2.1.0                                OpenMMLab/MMDetection_base_py38
arias/1.36.0                               intel/parallelstudio/2017.1.5              openmpi/4.1.1
blas/3.10.0                                intel/parallelstudio/2019.3.0              openmpi/4.1.5_gcc11.2_ucx1.14.1_cuda11.8
cmake/3.22.0                               intel/parallelstudio/2021.1.1              openmpi/4.1.5_ucx1.14.1_nvhpc23.5_cuda12.1
complier/gcc/12.2.0                        jupyter/lab                                p7zip/16.02
cuda/11.7                                  jupyter/notebook                           p7zip/21.02
cuda/11.8                                  lapack/3.10.1                              plumed/2.7.2
cuda/12.1                                  libevent/2.1.12                            pmix/3.2.2
cuda/12.2                                  namd/2.14-verbs-linux-x86_64-gcc-smp-CUDA  pnetcdf/1.12.2/openmpi_gcc9.3
cudnn/8.2.1_cuda11.x                       namd/2.15_2022-07-21_multicore_CUDA        qflow/1.0
cudnn/8.5.0_cuda11.x                       namd/3.0b3_multicore_CUDA                  rar/611
cudnn/8.6.0_cuda11.x                       nccl/2.11.4-1_RTX4090-cuda11.8             relion/3.0.8
cudnn/8.7.0_cuda11.x                       nccl/2.18.1-1_RTX4090-cuda11.8             relion/3.1.3
cudnn/8.9.3.28_cuda12.x                    netcdf-c/4.8.1/openmpi_gcc9.3              singularity/2.6.0
dos2unix/6.0.3                             nvhpc/nvhpc/23.7                           singularity/3.10.0
fftw/3.3.9                                 nvhpc/nvhpc-byo-compiler/22.11             singularity/3.9.9
fftw/3.3.9-ompi-float                      nvhpc/nvhpc-byo-compiler/23.5              tensorboard/2.3.0
gcc/11.2                                   nvhpc/nvhpc-byo-compiler/23.7              ucx/1.14.1_gcc11.2_cuda11.8
gcc/5.4                                    nvhpc/nvhpc-hpcx/23.7                      ucx/1.14.1_nvhpc23.5_cuda12.1
gcc/6.3                                    nvhpc/nvhpc-hpcx-cuda12/23.7               ucx/1.8
gcc/7.3                                    nvhpc/nvhpc-nompi/22.11                    ucx/1.9
gcc/8.3                                    nvhpc/nvhpc-nompi/23.5                     xesces/3.2.0
gcc/9.3                                    nvhpc/nvhpc-nompi/23.7                     zlib/1.2.11

该有的基本都有,还算比较全,

  1. 安装anaconda,
    module load anaconda/2021.05
    # anaconda/2022.10 这个版本会报错
    conda init
    source ~/.bashrc
    
  2. 修改~/.bashrc脚本
    • module加载的软件环境只在当前登录窗口有效,退出登录后软件环境就会失效。
    • 用户如果需要经常使用一个软件,可以把load命令放在~/.bashrc或者提交脚本中
    vim ~/.bashrc
    module load anaconda/2021.05
    module load jupyter/lab 
    module load jupyter/notebook
    module load cuda/11.8
    module load cudnn/8.7.0_cuda11.x 
    module load gcc/8.3  
    
  3. 根据目的创建不同的虚拟环境,我默认base是py38,所以就不创建了,就直接在base上安装软件了。
    # 根据自己的module avail中显示的cuda版本,找对应的pytorch版本
    # https://pytorch.org/get-started/previous-versions/    
    conda create -n mmseg python=3.8   
    conda activate mmseg  # 安装torch                         
    pip3 install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1 --index-url https://download.pytorch.org/whl/cu118
    >|█████▏                          | 369.2 MB 607 kB/s eta 0:52:05|████████████████▍               | 1160.7 MB 31.4 MB/s eta 0:00:36
    # 下载速度很好!
    # 安装mmseg需要的包
    pip3 install openmim
    pip3 install mmengine
    # mmcv需要编译,需要gcc 5.4+的版本 module load gcc/8.3  
    pip3 install mmcv# 安装之后确认下版本
    pip show mmcv # Version: 2.0.1
    pip show mmengine # Version: 0.8.4# 还可以看见安装位置:
    Location: /data/run01/scw6886/.local/lib/python3.7/site-packages
    # 运行期间的,所以会话关闭之后就会消失。。
    
  4. 由于每次ssh连接到bash会话,都要重新手动安装一遍,很麻烦,所以也可以把你想要在开机时就执行的命令全都写到.bashrc文件中,可以启动时执行命令,关于这个文件的作用,可以自行搜索。
    • 但是也不一定每次都是要使用cuda,所以看自己选择吧,是每次连接时都要等差不多10分钟,但是不需要手动输入;还是每次都手动输入,可以根据任务是否需要使用cuda来选择不等待
    pip3 install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1 --index-url https://download.pytorch.org/whl/cu118
    pip3 install openmim
    pip3 install mmengine
    pip3 install mmcv
  5. 目录问题,
    • 默认ssh登录后位于家目录,home,用于存放用户环境设置等文件,不要在此目录下安装软件及存放文件,默认配额为1GB
    • 作业运行数据存放目录:~/run用于存放计算所需或者访问频次较高的数据,读写性能较好,请将计算时需要使用的数据存储到该目录下并在此目录进行计算

参考:

  • 北京超算云计算平台深度学习环境配置
  • Linux必备技能:轻松编辑bashrc配置文件!
  • 配置开机自启命令文件~/.bashrc、/etc/profile、/etc/bash.bashrc的异同(bashrc:Bash Run Commands)环境变量、~/.bash_profile

3.3 创建分支

# fetch,把upstream上最新的所有内容都拉到本地
# 但是注意,需要保证本地没有什么冲突,当前处在任意分支都没问题
git fetch upstream

在这里插入图片描述

然后就可以基于远程最新的dev-1.x来创建自己的开发分支了

git checkout -b SupportInverseFormLoss upstream/dev-1.x

3.4 执行官方repo的推理

根据:https://github.com/Qualcomm-AI-research/InverseForm

参考:

  • Nvidia Apex简介

3.5 自己写代码

主要参考的两个已有的loss是:

  • https://github.com/open-mmlab/mmsegmentation/blob/main/mmseg/models/losses/tversky_loss.py
  • https://github.com/open-mmlab/mmsegmentation/blob/main/mmseg/models/losses/cross_entropy_loss.py

1. 网络作为损失函数

  • Pytorch-DCGAN TUTORIAL
  • https://www.run.ai/guides/deep-learning-for-computer-vision/pytorch-gan
  • 对抗神经网络(二)——DCGAN

2. XXX.cuda()

  • Using CUDA with pytorch?
  • How to run PyTorch on GPU by default?

3. XX_loss类的参数与config文件的对应关系
如下例子所示,损失函数的参数就是config文件中部分的参数

class CrossEntropyLoss(nn.Module):def __init__(self,use_sigmoid=False,use_mask=False,reduction='mean',class_weight=None,loss_weight=1.0,loss_name='loss_ce',avg_non_ignore=False):loss_decode=dict(  # Config of loss function for the decode_head.type='CrossEntropyLoss',  # Type of loss used for segmentation.use_sigmoid=False,  # Whether use sigmoid activation for segmentation.loss_weight=1.0)),  # Loss weight of decode_head.
  • mmsegmentation/mmseg/models/losses/cross_entropy_loss.py
  • https://mmsegmentation.readthedocs.io/en/latest/user_guides/1_config.html

4. 函数的一些默认值设置

  • 这里用的是Cityscapes数据集,所以基本都是针对这个数据集进行的设置
  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/utils/config.py#L223

5. upper_bound参数

  • boundaryloss:Boundary loss for highly unbalanced segmentation

在这里插入图片描述

  • 『paddle』paddleseg 学习笔记:损失函数

  • PaddleSeg/paddleseg/models/losses/decoupledsegnet_relax_boundary_loss.py
  • OHEM: Training Region-based Object Detectors with Online Hard Example Mining
  • https://mmsegmentation.readthedocs.io/en/latest/advanced_guides/training_tricks.html#online-hard-example-mining-ohem
@manager.LOSSES.add_component
class RelaxBoundaryLoss(nn.Layer):"""Implements the ohem cross entropy loss function.Args:border (int, optional): The value of border to relax. Default: 1.calculate_weights (bool, optional): Whether to calculate weights for every classes. Default: False.upper_bound (float, optional): The upper bound of weights if calculating weights for every classes. Default: 1.0.ignore_index (int64): Specifies a target value that is ignoredand does not contribute to the input gradient. Default: 255."""def __init__(self,border=1,calculate_weights=False,upper_bound=1.0,ignore_index=255):super(RelaxBoundaryLoss, self).__init__()self.border = borderself.calculate_weights = calculate_weightsself.upper_bound = upper_boundself.ignore_index = ignore_indexself.EPS = 1e-5def calculate_weights(self, label):hist = paddle.sum(label, axis=(1, 2)) * 1.0 / label.sum()hist = ((hist != 0) * self.upper_bound * (1 - hist)) + 1

6. torch.where()
https://pytorch.org/docs/stable/generated/torch.where.html

torch.where(edge.max(1)[0] > 0.8, target, filler)>>> x = torch.randn(3, 2)
>>> y = torch.ones(3, 2)
>>> x
tensor([[-0.4620,  0.3139],[ 0.3898, -0.7197],[ 0.0478, -0.1657]])
>>> torch.where(x > 0, 1.0, 0.0)
tensor([[0., 1.],[1., 0.],[1., 0.]])
>>> torch.where(x > 0, x, y) # 满足条件的就用x的值,不满足的就用y的值
tensor([[ 1.0000,  0.3139],[ 0.3898,  1.0000],[ 0.0478,  1.0000]])

7. 预测的分割边界图来源- b p r e d b_{pred} bpred来源

论文中提到:
在这里插入图片描述
我们工作的主要不同点在于:推理时候不会引入额外开销,下面这个框架图已经很明显了说明问题了
在这里插入图片描述

  • 推理的时候关闭那个Boundary head,只使用上面的Segmentation head,只生成 y p r e d y_pred ypred就可以
  • 训练的时候才会使用Boundary head来生成 b p r e d b_{pred} bpred

在这里插入图片描述

  • 所以想要使用这个InverseFormLoss,是需要修改网络结构的
    在这里插入图片描述

8. 如何把InverseForm插入现有网络

  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/ocrnet.py
  • https://github.com/NVIDIA/semantic-segmentation/blob/main/network/ocrnet.py

HRnet+OCR

  • https://arxiv.org/abs/1904.04514
  • https://github.com/HRNet/HRNet-Semantic-Segmentation/pulls
  • https://github.com/open-mmlab/mmsegmentation/tree/main/configs/ocrnet
  • https://github.com/open-mmlab/mmsegmentation/tree/main/configs/hrnet

9. 单元测试

  • https://github.com/open-mmlab/mmsegmentation/tree/main/tests/test_models/test_losses

10. 实现多头

  • mmpretrain-issue: multi task 多任务训练[Feature] #481
  • https://mmsegmentation.readthedocs.io/zh_CN/latest/advanced_guides/add_models.html#head
  • https://github.com/open-mmlab/mmsegmentation/blob/main/mmseg/models/decode_heads/ocr_head.py
  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/ocrnet.py

11. bce2d和boundary_loss

  • https://github.com/Qualcomm-AI-research/InverseForm/blob/main/models/loss/utils.py#L123C11-L123C11
  • 其实和这个是一样的:
    • https://github.com/CastleDream/mmsegmentation/blob/main/mmseg/models/losses/boundary_loss.py
    • 参考自:PIDNet https://github.com/XuJiacong/PIDNet/blob/main/utils/criterion.py#L122

有些写法上的区别:(重点关注,continuous的问题)

  • PyTorch 两大转置函数 transpose() 和 permute(), 以及RuntimeError: invalid argument 2: view size is not compati
  • Different between permute, transpose, view? Which should I use?
  • TORCH.TENSOR.VIEW

12. ImageBasedCrossEntropyLoss2d

  • semantic-segmentation/loss/utils.py,直接用的NVIDIA的这里的实现,也是页面搜索ImageBasedCrossEntropyLoss2d
  • https://gitee.com/mindspore/mindspore/issues/I55C9U,页面内搜索class ImageBasedCrossEntropyLoss2d,
    • 这个实现和这个github的repo是一样的:https://github.com/lxtGH/SFSegNets/blob/master/loss.py

3.6 报错 ImportError: cannot import name ‘InverseFormLoss’ from ‘mmseg.models.losses’

Traceback (most recent call last):File "../tests/test_models/test_losses/test_inverseform_loss.py", line 9, in <module>from mmseg.models.losses import InverseFormLoss
ImportError: cannot import name 'InverseFormLoss' from 'mmseg.models.losses' (mmsegmentation/mmseg/models/losses/__init__.py)
  • 这是因为默认from mmseg.models.losses import InverseFormLoss这句其实是引用的当前python环境中已经安装的mmsegmation其实是旧的,是之前安装的版本,不是你自己改动过的版本。
  • 因此,可以卸载这个版本,pip uninstall mmsegmentation
  • 然后把自己当前的这个mmsegmentation的文件夹的路径添加到python的系统路径中,具体如下:
    import sys
    sys.path.append('yourDir/mmsegmentation')
    # 一定要确定是把这个目录添加到系统目录之后,再去import刚刚ImportError的内容
    # 或者你可以直接把这个路径写到python的系统路径中,上面这种方式只是运行时生效
    from mmseg.models.losses import InverseFormLoss
    

我用的:

import sys
sys.path.append('/Users/huangshan/Documents/DailyStudy/mmsegmentation')
print(sys.path)if __name__ == "__main__":test_inverseform_loss()

3.7 RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False. If you are running on a CPU-only machine, please use torch.load with map_location=torch.device(‘cpu’) to map your storages to the CPU.

根据pytest.raises Failed: DID NOT RAISE with try/except,只需要在模型加载的时候torch.load(path, map_location='cpu'),用map_location指明是cpu就行

3.8 pytest.raises Failed: DID NOT RAISE with try/except

 # Test loss forward with pred.shape!=target.shapepred_wrong = torch.zeros(2, 1, 4, 4)target_wrong = torch.zeros(3, 1, 4, 4)with pytest.raises(AssertionError):loss = loss_class(pred_wrong, target_wrong)print(loss)

这个pytest.raises(AssertionError)本身就是判断如果错了,会不会报错出来,所以with里面是可以抛出错误的代码

3.9 构建文档报错

在这里插入图片描述
在这里插入图片描述
https://docs.readthedocs.io/en/stable/config-file/v2.html#build-os

提交PR在测试的时候,第一次遇到构建文档报错。。。

这次写注释的时候,唯一的一个异常,就是某行超过72个字符的时候,把and换成了&,然后就出现了上面这个错误。。

改了之后,就没有了。

但是没有找到相关的资料,不确定真的是因为这个&符号,还是说可能刚刚测试环境坏了

3.10 提交的PR conflict

https://docs.github.com/en/pull-requests/collaborating-with-pull-requests/addressing-merge-conflicts/resolving-a-merge-conflict-on-github

这篇关于OpenMMLab【超级视客营】——支持InverseForm Loss(MMSegmentation的第三个PR)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/263791

相关文章

PR曲线——一个更敏感的性能评估工具

在不均衡数据集的情况下,精确率-召回率(Precision-Recall, PR)曲线是一种非常有用的工具,因为它提供了比传统的ROC曲线更准确的性能评估。以下是PR曲线在不均衡数据情况下的一些作用: 关注少数类:在不均衡数据集中,少数类的样本数量远少于多数类。PR曲线通过关注少数类(通常是正类)的性能来弥补这一点,因为它直接评估模型在识别正类方面的能力。 精确率与召回率的平衡:精确率(Pr

Golang支持平滑升级的HTTP服务

前段时间用Golang在做一个HTTP的接口,因编译型语言的特性,修改了代码需要重新编译可执行文件,关闭正在运行的老程序,并启动新程序。对于访问量较大的面向用户的产品,关闭、重启的过程中势必会出现无法访问的情况,从而影响用户体验。 使用Golang的系统包开发HTTP服务,是无法支持平滑升级(优雅重启)的,本文将探讨如何解决该问题。 一、平滑升级(优雅重启)的一般思路 一般情况下,要实现平滑

sqlite不支持中文排序,采用java排序

方式一 不支持含有重复字段进行排序 /*** sqlite不支持中文排序,改用java排序* 根据指定的对象属性字段,排序对象集合,顺序* @param list* @param field* @return*/public static List sortListByField(List<?> list,String field){List temp = new ArrayList(

一款支持同一个屏幕界面同时播放多个视频的视频播放软件

GridPlayer 是一款基于 VLC 的免费开源跨平台多视频同步播放工具,支持在一块屏幕上同时播放多个视频。其主要功能包括: 多视频播放:用户可以在一个窗口中同时播放任意数量的视频,数量仅受硬件性能限制。支持多种格式和流媒体:GridPlayer 支持所有由 VLC 支持的视频格式以及流媒体 URL(如 m3u8 链接)。自定义网格布局:用户可以配置播放器的网格布局,以适应不同的观看需求。硬

Science Robotics 首尔国立大学研究团队推出BBEX外骨骼,实现多维力量支持!

重复性举起物体可能会对脊柱和背部肌肉造成损伤,由此引发的腰椎损伤是工业环境等工作场所中一个普遍且令人关注的问题。为了减轻这类伤害,有研究人员已经研发出在举起任务中为工人提供辅助的背部支撑装置。然而,现有的这类装置通常无法在非对称性的举重过程中提供多维度的力量支持。此外,针对整个人体脊柱的设备安全性验证也一直是一个缺失的环节。 据探索前沿科技边界,传递前沿科技成果的X-robot投稿,来自首尔国立

超级 密码加密 解密 源码,支持表情,符号,数字,字母,加密

超级 密码加密 解密 源码,支持表情,符号,数字,字母,加密 可以将表情,动物,水果,表情,手势,猫语,兽语,狗语,爱语,符号,数字,字母,加密和解密 可以将文字、字母、数字、代码、标点符号等内容转换成新的文字形式,通过简单的文字以不同的排列顺序来表达不同的内容 源码截图: https://www.httple.net/152649.html

QtC++截图支持窗口获取

介绍 在截图工具中你会发现,接触到窗口后会自动圈出目标窗口,个别强大一点的还能进行元素识别可以自动圈出元素,那么今天简单分析一下QTc++如何获取窗口并圈出当前鼠标下的窗口。 介绍1.如何获取所有窗口2.比较函数3.实现窗口判断 结尾 1.如何获取所有窗口 1.我们需要调用windows接口EnumWindowsProc回调函数来获取所有顶级窗口,需要包含windows.

Nacos Config 配置中心支持配置共享

文章目录 一、什么是配置中心二、Nacos Config2.1 Nacos Config 工作原理 (★)2.2 Nacos Config 的使用2.3 动态刷新2.4 配置共享2.4.1 同一个微服务的不同环境之间共享配置2.4.2 不同微服务中间共享配置 一、什么是配置中心 微服务架构下关于配置文件的存在以下问题: 配置文件相对分散。在一个微服务架构下,配置文件会随

Pr 入门系列之二:导入与管理素材(下)

◆  ◆  ◆ 管理素材 导入素材后,项目面板中每一个媒体都只是原始素材的“链接”。 所以,视频编辑过程中一般情况下都不会破坏原始素材。 1、在不同视图模式下组织素材 项目面板提供了三大视图 View供选用:列表视图、图标视图以及自由格式视图。 A. 锁定 B. 列表视图 C. 图标视图 D. 自由格式视图 E. 缩放滑块 F. 排序图标 G. 自动匹配序列 H. 查找 I. 新建素材箱 J.

spring笔记 多线程的支持

spring的工作机制 136  属性编辑器 140 spring事件的体系结构 168 Bean间的关系 109 继承 依赖 引用     Bean的继承          1 为了简化初始化的属性注入;          2 子Bean和父Bean相同的属性值,使用子Bean的     Bean的依赖 Srping控制相互依赖的Bean之间,属性注入的顺序,防止出错  depend-on