紫书训练 7.14

2024-03-20 17:08
文章标签 训练 7.14 紫书

本文主要是介绍紫书训练 7.14,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

https://vjudge.net/contest/310985#overview  概率dp

密码:996996

A - Another Crisis

 从大bose往下,按提交申请书人数从小到大排序,优先选择前面的即可,满足它选的那个比例即可。


#include<bits/stdc++.h>
#define il inline
#define pb push_back
#define fi first
#define se second
#define ms(_data,v) memset(_data,v,sizeof(_data))
#define sc(n) scanf("%d",&n)
#define SC(n,m) scanf("%d %d",&n,&m)
#define SZ(a) int((a).size())
#define rep(i,a,b) for(int i=a;i<=b;++i)
#define drep(i,a,b)	for(int i=a;i>=b;--i)
using namespace std;
typedef long long ll;
const ll inf=0x3f3f3f3f;
const double PI=acos(-1.0);
const double eps=1e-9;
const int maxn=1e5+5;
int n,T; 
vector<int> son[maxn];
il int solve(int v){if(son[v].empty()) return 1;vector<int> ch;for(int i=0;i<SZ(son[v]);++i) ch.pb(solve(son[v][i]));sort(ch.begin(),ch.end());int len=SZ(ch),sum=0;int num=ceil((T*1.0)/100.0*len);for(int i=0;i<num;++i) sum+=ch[i];return sum;
}
int main(){std::ios::sync_with_stdio(0);while(cin>>n>>T && (n || T)){int x;rep(i,1,n){cin>>x;son[x].pb(i);} cout<<solve(0)<<endl;rep(i,0,n) son[i].clear();}return 0;
}

B - Minimax Triangulation

 好鬼酷,这居然是区间dp,就是在转移的时候要judge一下,现在所选的3个点是不是将其他的点包在其中。

#include<bits/stdc++.h>
#define il inline
#define pb push_back
#define fi first
#define se second
#define ms(_data,v) memset(_data,v,sizeof(_data))
#define sc(n) scanf("%d",&n)
#define SC(n,m) scanf("%d %d",&n,&m)
#define SZ(a) int((a).size())
#define rep(i,a,b) for(int i=a;i<=b;++i)
#define drep(i,a,b)	for(int i=a;i>=b;--i)
using namespace std;
typedef long long ll;
const ll inf=0x3f3f3f3f;
const double PI=acos(-1.0);
const double eps=1e-9;
struct point {double x,y;
} p[60];
int n;
double dp[60][60];
double area(point a,point b,point c) {return abs((b.x-a.x)*(c.y-a.y)-(c.x-a.x)*(b.y-a.y))/2.0;
}
int judge(int a,int b,int c) {for(int i=0; i<n; ++i) {if(i!=a && i!=b && i!=c) {double tmp=area(p[a],p[b],p[i])+area(p[a],p[i],p[c])+area(p[i],p[b],p[c]);if(abs(tmp-area(p[a],p[b],p[c]))<eps)	return false;}}return true;
}
void solve() {double ans=inf;for(int l=2; l<n; ++l)for(int i=0; i<n; ++i) {int j=(i+l)%n;dp[i][j]=inf;for(int k=(i+1)%n; k!=j; k=(k+1)%n) {if(judge(i,k,j)) {dp[i][j]=min(dp[i][j],max(max(dp[i][k],dp[k][j]),area(p[i],p[k],p[j])));}}if(l==n-1)ans=min(ans,dp[i][j]);}printf("%.1lf\n",ans);
}
int t;
int main() {
//	std::ios::sync_with_stdio(0);	scanf("%d",&t);while(t--) {scanf("%d",&n);for(int i=0; i<n; ++i)	scanf("%lf%lf",&p[i].x,&p[i].y);solve();}return 0;
}

C - Polygon

 代码很简单,但是结论的话,不看还真的想不到 可以参考一下,或者看紫薯

#include<bits/stdc++.h>
#define il inline
#define pb push_back
#define fi first
#define se second
#define ms(_data,v) memset(_data,v,sizeof(_data))
#define sc(n) scanf("%d",&n)
#define SC(n,m) scanf("%d %d",&n,&m)
#define SZ(a) int((a).size())
#define rep(i,a,b) for(int i=a;i<=b;++i)
#define drep(i,a,b)	for(int i=a;i>=b;--i)
using namespace std;
typedef long long ll;
const ll inf=0x3f3f3f3f;
const double PI=acos(-1.0);
const double eps=1e-9;
il ll gcd(ll a,ll b){return b==0?a:gcd(b,a%b);
}
int main(){int T;scanf("%d",&T);for(int kase=1;kase<=T;++kase){int n,k;scanf("%d%d",&n,&k);ll x=(1LL<<k)-(k+1);ll y=(1LL<<k);ll g=gcd(x,y);x/=g, y/=g;printf("Case #%d: %lld/%lld\n",kase,x,y);}return 0;
}

D - Headshot

 一看图就被吓到了,计算几何吗?其实这个概率还是挺好算的,就是比较 连续两个无弹在总无弹之中的概率(因为前一个人无弹) 和  无弹在整个子弹个数中的概率 比较一下。


#include<bits/stdc++.h>
#define il inline
#define pb push_back
#define fi first
#define se second
#define ms(_data,v) memset(_data,v,sizeof(_data))
#define sc(n) scanf("%d",&n)
#define SC(n,m) scanf("%d %d",&n,&m)
#define SZ(a) int((a).size())
#define rep(i,a,b) for(int i=a;i<=b;++i)
#define drep(i,a,b)	for(int i=a;i>=b;--i)
using namespace std;
typedef long long ll;
const ll inf=0x3f3f3f3f;
const double PI=acos(-1.0);
const double eps=1e-9;
string s;
int main(){std::ios::sync_with_stdio(0);while(cin>>s){double all=0,two=0;int len=SZ(s);s.insert(s.end(),s[0]);	rep(i,0,SZ(s)-2){if(s[i]=='0') all+=1.0;if(s[i+1]==s[i] && s[i]=='0') two+=1.0;}double p1=two/all,p2=all/(double)len;if(p1>p2) cout<<"SHOOT"<<endl;else if(p1==p2) cout<<"EQUAL"<<endl;else cout<<"ROTATE"<<endl; }return 0;
}

E - Probability|Given

 看似dp,实则暴力,考虑买和不买的所有情况即可。


#include<bits/stdc++.h>
#define il inline
#define pb push_back
#define fi first
#define se second
#define ms(_data,v) memset(_data,v,sizeof(_data))
#define sc(n) scanf("%d",&n)
#define SC(n,m) scanf("%d %d",&n,&m)
#define SZ(a) int((a).size())
#define rep(i,a,b) for(int i=a;i<=b;++i)
#define drep(i,a,b)	for(int i=a;i>=b;--i)
using namespace std;
typedef long long ll;
const ll inf=0x3f3f3f3f;
const double PI=acos(-1.0);
const double eps=1e-9;
const int maxn=35;
double pi[maxn],a[maxn];
int n,r;
il double run(int num,double P,int numr){if(num == n+1){if(numr == r)	return P;else return 0.0;}double p1=0,p2=0;if(numr < r){p1=run(num+1,P*a[num],numr+1);pi[num]+=p1;} p2=run(num+1,P*(1-a[num]),numr);return p1+p2;
}
int main(){std::ios::sync_with_stdio(0);int cnt=0;while(cin>>n>>r && (n || r)){rep(i,1,n) cin>>a[i];double all=run(1,1,0);printf("Case %d:\n", ++cnt);rep(i,1,n)	printf("%.6lf\n",pi[i]/all);ms(pi,0);}return 0;
}

 

这篇关于紫书训练 7.14的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/830165

相关文章

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering)

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering) Power Iteration Clustering (PIC) 是一种基于图的聚类算法,用于在大规模数据集上进行高效的社区检测。PIC 算法的核心思想是通过迭代图的幂运算来发现数据中的潜在簇。该算法适用于处理大规模图数据,特别是在社交网络分析、推荐系统和生物信息学等领域具有广泛应用。Spa

SigLIP——采用sigmoid损失的图文预训练方式

SigLIP——采用sigmoid损失的图文预训练方式 FesianXu 20240825 at Wechat Search Team 前言 CLIP中的infoNCE损失是一种对比性损失,在SigLIP这个工作中,作者提出采用非对比性的sigmoid损失,能够更高效地进行图文预训练,本文进行介绍。如有谬误请见谅并联系指出,本文遵守CC 4.0 BY-SA版权协议,转载请联系作者并注

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录 在深度学习项目中,目标检测是一项重要的任务。本文将详细介绍如何使用Detectron2进行目标检测模型的复现训练,涵盖训练数据准备、训练命令、训练日志分析、训练指标以及训练输出目录的各个文件及其作用。特别地,我们将演示在训练过程中出现中断后,如何使用 resume 功能继续训练,并将我们复现的模型与Model Zoo中的

多云架构下大模型训练的存储稳定性探索

一、多云架构与大模型训练的融合 (一)多云架构的优势与挑战 多云架构为大模型训练带来了诸多优势。首先,资源灵活性显著提高,不同的云平台可以提供不同类型的计算资源和存储服务,满足大模型训练在不同阶段的需求。例如,某些云平台可能在 GPU 计算资源上具有优势,而另一些则在存储成本或性能上表现出色,企业可以根据实际情况进行选择和组合。其次,扩展性得以增强,当大模型的规模不断扩大时,单一云平

神经网络训练不起来怎么办(零)| General Guidance

摘要:模型性能不理想时,如何判断 Model Bias, Optimization, Overfitting 等问题,并以此着手优化模型。在这个分析过程中,我们可以对Function Set,模型弹性有直观的理解。关键词:模型性能,Model Bias, Optimization, Overfitting。 零,领域背景 如果我们的模型表现较差,那么我们往往需要根据 Training l

如何创建训练数据集

在 HuggingFace 上创建数据集非常方便,创建完成之后,通过 API 可以方便的下载并使用数据集,在 Google Colab 上进行模型调优,下载数据集速度非常快,本文通过 Dataset 库创建一个简单的训练数据集。 首先安装数据集依赖 HuggingFace datasetshuggingface_hub 创建数据集 替换为自己的 HuggingFace API key

【YOLO 系列】基于YOLOV8的智能花卉分类检测系统【python源码+Pyqt5界面+数据集+训练代码】

前言: 花朵作为自然界中的重要组成部分,不仅在生态学上具有重要意义,也在园艺、农业以及艺术领域中占有一席之地。随着图像识别技术的发展,自动化的花朵分类对于植物研究、生物多样性保护以及园艺爱好者来说变得越发重要。为了提高花朵分类的效率和准确性,我们启动了基于YOLO V8的花朵分类智能识别系统项目。该项目利用深度学习技术,通过分析花朵图像,自动识别并分类不同种类的花朵,为用户提供一个高效的花朵识别

深度学习与大模型第3课:线性回归模型的构建与训练

文章目录 使用Python实现线性回归:从基础到scikit-learn1. 环境准备2. 数据准备和可视化3. 使用numpy实现线性回归4. 使用模型进行预测5. 可视化预测结果6. 使用scikit-learn实现线性回归7. 梯度下降法8. 随机梯度下降和小批量梯度下降9. 比较不同的梯度下降方法总结 使用Python实现线性回归:从基础到scikit-learn 线性

使用openpose caffe源码框架训练车辆模型常见错误及解决办法

错误1:what():  Error: mSources.size() != mProbabilities.size() at 51, OPDataLayer, src/caffe/openpose/layers/oPDataLayer.cpp 原因:这是因为在网络模型中数据源sources和probabilities设置的参数个数不一样导致的,一个数据源对应一个概率 解决方法:只需要将网络文