1401:机器翻译

2024-02-15 19:28
文章标签 机器翻译 1401

本文主要是介绍1401:机器翻译,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

分析:模拟题,用vector模拟队列实现

指向queue队首的l指针,指向queue队尾的r指针(用push_back()代替也一样)

指针更新情况为:

  1. 搜索有单词,不做处理
  2. 搜索无单词,判断内存长度,若足够添加单词并计数,若不足则删除单词再添加单词并计数
#include<iostream>
#include<vector>
using namespace std;int main() {int m, n, t;cin >> m >> n;vector<int> mem(n + 5);int l = 0, r = 0, cnt = 0;for (int i = 0; i < n; i++) {cin >> t;if (i == 0) {cnt++;mem[r] = t;continue;}int flag = 0;for (int j = l; j <= r; j++) {if (t == mem[j]) {flag = 1;break;}}if (flag) continue;else {if (r - l + 1 >= m) l++;mem[++r] = t;cnt++;}}cout << cnt;return 0;
}

这篇关于1401:机器翻译的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/712310

相关文章

uva 10061 How many zero's and how many digits ?(不同进制阶乘末尾几个0)+poj 1401

题意是求在base进制下的 n!的结果有几位数,末尾有几个0。 想起刚开始的时候做的一道10进制下的n阶乘末尾有几个零,以及之前有做过的一道n阶乘的位数。 当时都是在10进制下的。 10进制下的做法是: 1. n阶位数:直接 lg(n!)就是得数的位数。 2. n阶末尾0的个数:由于2 * 5 将会在得数中以0的形式存在,所以计算2或者计算5,由于因子中出现5必然出现2,所以直接一

NLP-机器翻译:数据集介绍及预处理

1.8 million的文章超过650k手动编写的文章摘要超过1.5 million 的人工标记的文章,标记包括 人物,地点,组织,标题,主题超过275k使用算法生成标记的文章用于解析xml文件的java工具 语料库中有650k个手动编写的文章摘要,这个可以用于文档摘要生成算法的评估, 参考资料: New York Times Corpus 介绍 (未完待续) The New Yo

【王树森】RNN模型与NLP应用(7/9):机器翻译与Seq2Seq模型(个人向笔记)

Machine Translation Data 做机器学习任务的第一步都是处理数据,我们首先需要准备机器翻译的数据。由于我们是学习用途,因此拿一个小规模数据集即可:http://www.manythings.org/anki/下面的数据集中:一个英语句子对应多个德语句子,如果翻译的时候能命中其中的一个则算作完全正确。 1. Preprocessing 将大写全部转化为小写去掉标点符号

机器翻译 -- Neural Machine Translation

本文是基于吴恩达老师《深度学习》第五课第三周练习题所做。 0.背景介绍  为探究机器翻译的奥秘,我们首先从日期翻译着手。本程序所需的第三方库、数据集及辅助程序,可点击此处下载。 from keras.layers import Bidirectional, Concatenate, Permute, Dot, Input, LSTM, Multiplyfrom keras.layers i

机器翻译技术学习笔记

由于NL2SQL和知识图谱问答任务的需要,学习了一段时间翻译模型,把经验记载在这篇文章里面。 1、数据越多效果越好? 不一定 语料质量,领域属性都会对效果有影响 基数小提升显著、基数大提升微弱甚至降低 2、如何构建词表: 3、模型选择: 并行计算能力弱,信息抽取能力弱。 gated cnn position embedding 引入卷积,提高并行化能力 非线性计算

跨语言翻译的突破:使用强化学习与人类反馈提升机器翻译质量

在人工智能领域,知识问答系统的性能优化一直是研究者们关注的焦点。现有的系统通常面临知识更新频繁、检索成本高、以及用户提问多样性等挑战。尽管采用了如RAG(Retrieval-Augmented Generation)和微调等技术,但它们各有利弊,例如RAG在知识内容多的情况下检索成本高,而微调则面临算力成本高和训练效果不稳定的问题。 为了克服这些难题,研究者们开始探索使用强化学习与人类反馈(RL

大神出新品,吴恩达开源机器翻译智能体项目

节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学。 针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。 合集: 《大模型面试宝典》(2024版) 正式发布! 持续火爆!《AIGC 面试宝典》已圈粉无数! 前段时间,随着 GPT-4o、Sora 的陆续问世,多模态模型在生

HDU 1401 Solitaire(双向搜索)

题目:LINK 题意: 在一个8×8的棋盘中,给定你4个棋子A,再给你4个棋子B,问你在8步之内能不能够从A位置移动到B位置; 规则:棋子能能上下左右移动,同时能跳过相邻的棋子到达相邻棋子的空地方; 如果直接搜索无论是bfs还是dfs都会TLE的,可以发现无论是从开始的棋盘搜索到最终的棋盘,还是从最终的棋盘搜索到开始的棋盘是一样的。 所以我们从开始的棋盘搜索4步,从最终的棋盘搜索4步,检测

AI机器翻译数据预处理步骤

之前在进行机器翻译时,一般除了与句子长度做了长度限制外,几乎没有做任何额外的操作,直接暴力的使用BPE算法对语料进行预处理。接触的都是BPE子词级别的,我们都知道,bpe算法的强大性,30000个子词几乎可以表示词典中所有的单词。但是如果我们要用词级别的翻译,那词典太大了,在机器翻译中词典受限的情况下,很多词就会变为未登录词。为了让词典尽可能的能囊括更多的单词,必须对双语语料进行预处理操作。 关

Python调用各大机器翻译其中阿里云、微软、ChatGPT

一、Python调用阿里云机器翻译api 阿里云机器翻译api的调用比较繁琐,申请过程也较复杂,其翻译质量倒时一般,大家可以有选择地使用以下代码: from alibabacloud_alimt20181012.client import Client as alimt20181012Clientfrom alibabacloud_tea_openapi import models as o