略解专题

seq2seq架构略解

用于序列翻译任务(下图来自d2l) 训练时输入输出格式: 若数据集为{ <(a1,a2,a3,a4,a5),(b1,b2,b3,b4,b5)> }(AB语言对应的句子组) 输入 A语言的单词序列+结束符(a1,a2,a3,a4,a5,<eos>) 开始符+B语言的单词序列(<bos>,b1,b2,b3,b4,b5) 输出 B语言的单词序列(b1,b2,b3,b4,b5,<eos>

无人机中的PID控制代码略解

无人机中的PID控制代码略解 PID的控制规律: 参考:Amov实验室-PX4中级课程-PID基础 频域函数: u ( s ) e r r ( s ) = k p + k i s + k d s \frac{u(s)}{err(s)}=k_p+\frac{k_i}{s}+k_ds err(s)u(s)​=kp​+ski​​+kd​s 写成时域的函数: u ( t ) = k p (

SEAN 代码略解

这篇《SEAN: Image Synthesis with Semantic Region-Adaptive Normalization 》是2020年CVPR的一篇oral,对它的代码做一个梳理。 由于已经做过了关于SPADE的解析,这一篇主要是看看它在SPADE上有什么改进 不同之处一: models/networks/generator.py def __init__(self

guided-pix2pix 代码略解

《Guided Image-to-Image Translation with Bi-Directional Feature Transformation》 train.py model.set_input(data)model.optimize_parameters() 开始训练 models/guided_pix2pix_model.py def se

SPADE 代码略解 ade20k数据集

对paper《Semantic Image Synthesis with Spatially-Adaptive Normalization》的代码梳理,主要用的是ade20k数据集 train.py # Training# train generatorif i % opt.D_steps_per_G == 0:trainer.run_generator_one_step(da

略解深度学习优化策略

目录 一、基本概念 二、梯度下降 三、牛顿法 四、随机梯度下降(SGD) 五、动量法 一、基本概念 常见的优化算法:SGD和Adam 梯度的简单解释:梯度可以理解为函数的导数,也可理解为函数的倾斜程度。函数图像水平时,函数的梯度消失。 凸函数:深度学习中出现的几乎所有优化问题都是非凸的。下面是对凸(convex)和非凸的一个介绍。  由上图可以找到明显的规律是,第一个图