5分绩点转4分_国足史上最严训练!4分40秒配速跑5公里,李铁教练全程陪同

本文主要是介绍5分绩点转4分_国足史上最严训练!4分40秒配速跑5公里,李铁教练全程陪同,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

近日,新一期国足集训队在李铁的率领下,在广州恒大里水训练基地进行集训。

对于国足李铁也是投入了巨大的精力,并为球队安排了十分详细的训练计划,高强度的训练内容被媒体称为是"魔鬼训练"。

ac0507f9e609c15e8cd3a2a5582e97d2.png

据称,"魔鬼训练"让国足球员叫苦不迭,甚至有的球员表示,在训练结束后,累得都不想说话,只想早早睡觉。

784ece744440ae77bd6e075659fc5757.png

据媒体公布的这些训练中,包括有5组1000米跑训练,百米时速在25-28秒间调整,组间休息2分半钟;有12组500米间歇跑练习,每组都有不同的速度要求;甚至还有8000千米匀速跑这种看起来似乎没有什么难度的训练。

0438ae0d817c87ab5fb173d8cbd572c3.png

换算一下“5组1000米跑训练”就是:有5X1000米间歇跑,配速4分10到4分40之间,每段间歇1040米,中途休息45秒,再接着跑,总距离8公里,那么加上休息时间八公里跑的总耗时为38分35秒到42分35秒之间

相关报道发布后后,国足的训练内容遭到了一些马拉松爱好者的嘲笑:"配速440也敢敢称最狠冬训?!"、"我440跑10K都是随便跑"、"不小心(自己)跑间歇都能超过国足了"

964a6426ec514480e59fce95c97c9684.png
ce35cfa80ab8dc90fbd4d8d92c9b5bcb.png

单从绝对配速来说,这个成绩的确不怎么样,训练强度不是很高,回去累到不想说话的话,这体能也真是不怎么样。但如果考虑背景,球员们都经历了一个疲惫的赛季,加上休假期刚刚回来,恢复必然是要从低强度开始的,一回来就高强度容易受伤,在不把人练伤的情况下,教练组这样的训练也算是合理的。也相信系统训练后,他们在体能上会有一定提高,毕竟底子还在那里放着。

近些年提到国足,不少球迷都是会觉得队伍管理很松懈,如今李铁执教,这一点上还是慢慢有了改变。

这一次集训主要是以体能储备为主,单这点来说,小编觉得李铁的思路比来得比里皮实在。

b6a703c0e9d379d8da67f0df98a55c23.png

在里皮执教期间,不会对球员做体能训练要求。因为就世界名帅看来,之前身边的顶级球员都很很自律,体能训练这些事情不需要专门强调,应该把更多时间放到技战术安排上。

但是国足还是比较缺这些,如果脱离体能根基架空安排战术,战术够执行不到位一样不行,所以之后确实显得水土不服。

国足的巅峰时期也与当时严格的体测制度也不无关系,当时12分钟跑3000米不及格的话,会被取消甲A注册资格,最终国足成功冲击世界杯;2011年足协取消体测之后,国足球员身材迅速走形,被球迷戏称为为"白斩鸡"。

cfd17c619d56525c718f5a2518f75d02.png
5a972429f881a0e4e6c29652d97fb9d9.png

如今李铁愿意从实际出发,从最基本的体能开始练起,从这点来说,还真的是很赞的。凡事不可一蹴而就,就目前国足的情况,各方面的确都需要更多的时间。也希望赛场上能早日见到一支耳目一新的"铁军"的国足球队。

这篇关于5分绩点转4分_国足史上最严训练!4分40秒配速跑5公里,李铁教练全程陪同的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/818432

相关文章

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering)

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering) Power Iteration Clustering (PIC) 是一种基于图的聚类算法,用于在大规模数据集上进行高效的社区检测。PIC 算法的核心思想是通过迭代图的幂运算来发现数据中的潜在簇。该算法适用于处理大规模图数据,特别是在社交网络分析、推荐系统和生物信息学等领域具有广泛应用。Spa

SigLIP——采用sigmoid损失的图文预训练方式

SigLIP——采用sigmoid损失的图文预训练方式 FesianXu 20240825 at Wechat Search Team 前言 CLIP中的infoNCE损失是一种对比性损失,在SigLIP这个工作中,作者提出采用非对比性的sigmoid损失,能够更高效地进行图文预训练,本文进行介绍。如有谬误请见谅并联系指出,本文遵守CC 4.0 BY-SA版权协议,转载请联系作者并注

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录 在深度学习项目中,目标检测是一项重要的任务。本文将详细介绍如何使用Detectron2进行目标检测模型的复现训练,涵盖训练数据准备、训练命令、训练日志分析、训练指标以及训练输出目录的各个文件及其作用。特别地,我们将演示在训练过程中出现中断后,如何使用 resume 功能继续训练,并将我们复现的模型与Model Zoo中的

企业大模型落地的“最后一公里”攻略

一、大模型落地的行业现状与前景 大模型在多个行业展现出强大的应用潜力。在金融行业,沉淀了大量高质量数据,各金融平台用户数以亿计,交易数据浩如烟海。利用大模型分析处理这些数据,金融机构可以预测用户行为偏好,更高效、准确评估客户风险,实时监测交易和市场波动,及时制定策略。IDC 调研显示,超半数的金融机构计划在 2023 年投资生成式人工智能技术。 在科技领域,商汤人工智能大装置为大模型企业提

多云架构下大模型训练的存储稳定性探索

一、多云架构与大模型训练的融合 (一)多云架构的优势与挑战 多云架构为大模型训练带来了诸多优势。首先,资源灵活性显著提高,不同的云平台可以提供不同类型的计算资源和存储服务,满足大模型训练在不同阶段的需求。例如,某些云平台可能在 GPU 计算资源上具有优势,而另一些则在存储成本或性能上表现出色,企业可以根据实际情况进行选择和组合。其次,扩展性得以增强,当大模型的规模不断扩大时,单一云平

神经网络训练不起来怎么办(零)| General Guidance

摘要:模型性能不理想时,如何判断 Model Bias, Optimization, Overfitting 等问题,并以此着手优化模型。在这个分析过程中,我们可以对Function Set,模型弹性有直观的理解。关键词:模型性能,Model Bias, Optimization, Overfitting。 零,领域背景 如果我们的模型表现较差,那么我们往往需要根据 Training l

如何创建训练数据集

在 HuggingFace 上创建数据集非常方便,创建完成之后,通过 API 可以方便的下载并使用数据集,在 Google Colab 上进行模型调优,下载数据集速度非常快,本文通过 Dataset 库创建一个简单的训练数据集。 首先安装数据集依赖 HuggingFace datasetshuggingface_hub 创建数据集 替换为自己的 HuggingFace API key

【YOLO 系列】基于YOLOV8的智能花卉分类检测系统【python源码+Pyqt5界面+数据集+训练代码】

前言: 花朵作为自然界中的重要组成部分,不仅在生态学上具有重要意义,也在园艺、农业以及艺术领域中占有一席之地。随着图像识别技术的发展,自动化的花朵分类对于植物研究、生物多样性保护以及园艺爱好者来说变得越发重要。为了提高花朵分类的效率和准确性,我们启动了基于YOLO V8的花朵分类智能识别系统项目。该项目利用深度学习技术,通过分析花朵图像,自动识别并分类不同种类的花朵,为用户提供一个高效的花朵识别

深度学习与大模型第3课:线性回归模型的构建与训练

文章目录 使用Python实现线性回归:从基础到scikit-learn1. 环境准备2. 数据准备和可视化3. 使用numpy实现线性回归4. 使用模型进行预测5. 可视化预测结果6. 使用scikit-learn实现线性回归7. 梯度下降法8. 随机梯度下降和小批量梯度下降9. 比较不同的梯度下降方法总结 使用Python实现线性回归:从基础到scikit-learn 线性