lcy老师的训练反思

2024-04-16 03:18
文章标签 训练 老师 反思 lcy

本文主要是介绍lcy老师的训练反思,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

三省吾身而有得,转载记录下来吧
https://blog.csdn.net/u011321546/article/details/9320567

该我自己检讨了_By LCY
Posted by Admin_LCY at 2010-05-05 00:54:33
(65)

首先,我想说,下面检讨的很多问题并不是现在才有,去年或许更早就已经逐步显现出来,只不过还算过得去的比赛成绩,特别是去年幸运的第一次World Final出线经历,掩盖了很多问题,也让我自己不够清醒。
但是现在,几次比赛的打击让我清醒了很多,断断续续想了很多天,我自己在很多地方实在应该好好检讨:

1、集训队几年来不断进步的趋势,让我心理上过于放松,以为只要按照既定的训练模式,保持以往的训练力度,就可以继续进步;但事实上,在越来越多的高校逐步重视ACM,都加大训练力度的前提下,我们原来的“体力优势”逐步消失。而自己内心上虽然意识到压力,但并未真正认识到问题会来的这么快。

2、前几年我校稳定的成绩很大程度上归功于赛前的大规模模拟比赛,这使得我们的队员总体上发挥趋于稳定和良好。这是因为,以前Public的比赛相对不多,大部分的学校比赛锻炼的机会相对较少,而HDU依托HDOJ以及大家努力寻找题源,有很多比赛可以自己训练,所以我们的比赛结果更好一些。而这两年,随着包括HDOJ的各OJ的公开赛增多,各校的队伍基本不用担心练习赛的机会不够,相反,可能参赛机会比我们都多(他们自己比赛不多,更珍惜其他OJ的公开赛机会,而我们队员除了去做指定必须参加的比赛,大部分队员并不会去主动寻找比赛机会,训练的主动性上已经先输一局)。

3、过于强调以赛代练的训练模式。这种训练的模式本身并没有错,但是这种模式的前提是:队员已经有不错的基础或者能自觉完成各个专题的训练,然后通过比赛发现知识盲点,赛后能主动的及时的补充巩固,从而达到进步目的。但HDU的现状是:大部分队员以前没有基础,而现在也还没完成专题训练,而最糟糕的是赛后也很少有人及时填补知识漏洞,然后恶果就是:比赛做的很多很辛苦,基本功却很不扎实,水平进步很慢,比赛成绩自然不能满意,自信心最终饱受摧残…

4、为了HDOJ的发展和影响力,耗费了我和众多主力选手的很多精力,我主要在考虑OJ的改版,主力队员主要是为外校出题而忙碌,而这些事情刚刚好和省赛训练时间冲突,让众多主力选手疲于应付,这个我的责任很大,以后很多工作尽量找老队员帮忙,实在不行就推掉。

5、师徒训练模式的不成功。这一点我范了经验主义错误,因为HDU往届老队员中有很多成功的师徒先例,所以我在这两年的训练中也为每个新队员指定了一个专门指导的师傅。但现实效果并不令人满意:主要是徒弟缺乏主动的学习精神,大部分新队员很少主动请教师傅训练方式、方法、甚至题目,而师傅也不好意思真正批评没认真训练的徒弟。

6、对成绩的追求过于浮躁。也许是因为我放弃了所有的事情,几乎只做这么一件事情,总想用不错的成绩给领导、家人、学生以及自己一个交代,潜意识给自己的压力太大了。胡浩在总结中指出了自己浮躁的心态问题,细细想来,我又何尝不是?以前周天涯亦纷飞陈晟组成的HDU-ACFlow多场比赛不顺利,我可以等他们整个暑假(是那种发自内心的相信他们一定能行的自信),而现在,胡浩领军的HDU-Ravages只是几场比赛发挥不好,我已经有点心浮气躁,虽然因为后者是现在的主力队责任更大,但显然,我的心态已经出了问题,我的态度以及情绪变化也给了各位队员太大的压力,这个我该重点检讨。

7、过于强调队员的主动训练态度,更多的指望队员能自己根据计划和资料合理安排自己的训练,而忽略了学生好玩的天性以及强大的惰性,这种方式过于模仿众多强校,但现实是:队员的基础以及自律性都有差异,我以后会加大督促力度。

8、集训队文化逐步消失,集训队吸引力缺乏。以前的集训队经常做一些讲座或者集体活动,而现在随着集训规模的扩大,开展活动很不方便,很多活动也就慢慢取消了,曾经的良好传统我会逐步恢复,期待集训队如同以往成为大家的精神家园。

9、过于重视参赛资格的公平性,而忽略了队员能力的扎实培养。因为根据比赛的综合排名能相对公平的决定参赛资格,所以几年来均采用多场比赛来进行排名。这种方式本身也没错,但是操作细节考虑不周——排名比赛的场次过多而让队员因为要竞争参赛资格而压力太大,没心思按部就班打基础。

10、对“乖孩子”类型队员的管理缺乏方法。这里所谓的“乖孩子”类型队员是指:人品好、性格好、成绩好、不迟到、不缺席、比大部分学生用功但是谈不上拼命、愿意参赛但是不强烈、指定的比赛会参加但是赛后不巩固、经常做点题目但是谈不上力度、会虚心接受批评但是一般不改进、因为成绩不错一般会大三退役考研。这些乖孩子类型队员在08女生以及大部分09队员中广泛存在(现在我依然没招…)。

最后,也请各位队员想一想:
——你的竞争对手是国内的超一流、一流高校的队员,HDU算几流?
——比基础,强校常有OI报送生,我们是大学开始学习C语言;
——比天赋,天才会掉到HDU 吗?
——比参赛场次,我们不能保研,大三就要退役了,而强校?

那,我们靠什么?——只能是勤奋+合理的训练

很庆幸的是,在情况还不是很恶化的情况下,能让我清醒下来,我一直很期待HDU-ACM能更进一步,我也有这个信心,也许中间还会有弯路,但是我的目标没有变,也不会变。
我也希望HDU全体ACM队员共同努力,为了我们整个ACM团队,也为了你自己,不留遗憾~

各位,加油!

LCY 2010.05.04

这篇关于lcy老师的训练反思的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/907666

相关文章

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering)

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering) Power Iteration Clustering (PIC) 是一种基于图的聚类算法,用于在大规模数据集上进行高效的社区检测。PIC 算法的核心思想是通过迭代图的幂运算来发现数据中的潜在簇。该算法适用于处理大规模图数据,特别是在社交网络分析、推荐系统和生物信息学等领域具有广泛应用。Spa

SigLIP——采用sigmoid损失的图文预训练方式

SigLIP——采用sigmoid损失的图文预训练方式 FesianXu 20240825 at Wechat Search Team 前言 CLIP中的infoNCE损失是一种对比性损失,在SigLIP这个工作中,作者提出采用非对比性的sigmoid损失,能够更高效地进行图文预训练,本文进行介绍。如有谬误请见谅并联系指出,本文遵守CC 4.0 BY-SA版权协议,转载请联系作者并注

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录 在深度学习项目中,目标检测是一项重要的任务。本文将详细介绍如何使用Detectron2进行目标检测模型的复现训练,涵盖训练数据准备、训练命令、训练日志分析、训练指标以及训练输出目录的各个文件及其作用。特别地,我们将演示在训练过程中出现中断后,如何使用 resume 功能继续训练,并将我们复现的模型与Model Zoo中的

可选择的反思指令微调

论文:https://arxiv.org/pdf/2402.10110代码:GitHub - tianyi-lab/Reflection_Tuning: [ACL'24] Selective Reflection-Tuning: Student-Selected Data Recycling for LLM Instruction-Tuning机构:马里兰大学, Adobe Research领

多云架构下大模型训练的存储稳定性探索

一、多云架构与大模型训练的融合 (一)多云架构的优势与挑战 多云架构为大模型训练带来了诸多优势。首先,资源灵活性显著提高,不同的云平台可以提供不同类型的计算资源和存储服务,满足大模型训练在不同阶段的需求。例如,某些云平台可能在 GPU 计算资源上具有优势,而另一些则在存储成本或性能上表现出色,企业可以根据实际情况进行选择和组合。其次,扩展性得以增强,当大模型的规模不断扩大时,单一云平

神经网络训练不起来怎么办(零)| General Guidance

摘要:模型性能不理想时,如何判断 Model Bias, Optimization, Overfitting 等问题,并以此着手优化模型。在这个分析过程中,我们可以对Function Set,模型弹性有直观的理解。关键词:模型性能,Model Bias, Optimization, Overfitting。 零,领域背景 如果我们的模型表现较差,那么我们往往需要根据 Training l

如何创建训练数据集

在 HuggingFace 上创建数据集非常方便,创建完成之后,通过 API 可以方便的下载并使用数据集,在 Google Colab 上进行模型调优,下载数据集速度非常快,本文通过 Dataset 库创建一个简单的训练数据集。 首先安装数据集依赖 HuggingFace datasetshuggingface_hub 创建数据集 替换为自己的 HuggingFace API key

【YOLO 系列】基于YOLOV8的智能花卉分类检测系统【python源码+Pyqt5界面+数据集+训练代码】

前言: 花朵作为自然界中的重要组成部分,不仅在生态学上具有重要意义,也在园艺、农业以及艺术领域中占有一席之地。随着图像识别技术的发展,自动化的花朵分类对于植物研究、生物多样性保护以及园艺爱好者来说变得越发重要。为了提高花朵分类的效率和准确性,我们启动了基于YOLO V8的花朵分类智能识别系统项目。该项目利用深度学习技术,通过分析花朵图像,自动识别并分类不同种类的花朵,为用户提供一个高效的花朵识别

深度学习与大模型第3课:线性回归模型的构建与训练

文章目录 使用Python实现线性回归:从基础到scikit-learn1. 环境准备2. 数据准备和可视化3. 使用numpy实现线性回归4. 使用模型进行预测5. 可视化预测结果6. 使用scikit-learn实现线性回归7. 梯度下降法8. 随机梯度下降和小批量梯度下降9. 比较不同的梯度下降方法总结 使用Python实现线性回归:从基础到scikit-learn 线性