机器翻译 深度学习预处理实战(中英文互译)一

2024-01-17 19:10

本文主要是介绍机器翻译 深度学习预处理实战(中英文互译)一,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

深度学习预处理实战(中英文互译)


文章目录

  • 深度学习预处理实战(中英文互译)
  • 前言
  • 一、获取中英互译的数据集
  • 二、具体步骤
    • 1.首先引入相关库
    • 2.中英文预处理
    • 3.主函数运行


前言

基于深度学习的机器翻译学习分为三步:
(1)解决自动将一种自然语言文本(源语言)翻译为另一种自然语言文本(目标语言)的问题。
(2)准备人工翻译的数据集,将其分成训练集和测试集。使用训练集的数据来训练深度神经网络。
(3)使用测试集的数据来评估模型表现。
深度学习机器翻译其实是用神经网络去学习人工翻译的数据集,使数学世界的神经网络成为取代真实世界中人工翻译的可计算模型。


一、获取中英互译的数据集

要进行深度学习的预训练和后续的训练,需要寻找一个合适的数据集。本数据集来自Manythings.org一家公益英语学习网站。这里我们可以看一下数据集的结构:
在这里插入图片描述
资源一直传不上去,给大家分享一个百度网盘链接提取链接:https://pan.baidu.com/s/1crPPSXtzaY1efyBLWprm-g?pwd=17eh
提取码:17eh

二、具体步骤

这里分步为讲解来大家容易理解,文章结尾附上完整代码,大家可以直接运行

1.首先引入相关库

代码如下(示例):库的下载直接pip即可,这里我不多赘述,由于是预处理,大家可以直接在cpu上运行不需要GPU

import tensorflow as tf
from sklearn.model_selection import train_test_split
import re
import io
import jieba
jieba.initialize()  # 手动初始化jieba资源,提高分词效率。
jieba.enable_paddle() # 启动paddle模式。 0.40版之后开始支持,早期版本不支持

2.中英文预处理

代码如下(示例):
这里判断是否为中文或者英文,再对中英文预处理为我们需要的格式,将中文按照字处理。

判断是否包含中文

#判断是否包含中文
def is_chinese(string):"""检查整个字符串是否包含中文:param string: 需要检查的字符串:return: bool"""for ch in string:if u'\u4e00' <= ch <= u'\u9fa5':return Truereturn False
#中英文预处理
def preprocess_sentence(w):if is_chinese(w):w = re.sub(r"[^\u4e00-\u9fa5,。?!]+", "", w)w = w.strip()#seg_list = jieba.cut(w,use_paddle=True) # 使用paddle模式分词#w= ' '.join(list(seg_list))w=分字(w)# 给句子加上开始和结束标记# 以便模型知道每个句子开始和结束的位置w = '<start> ' + w + ' <end>'else:w = w.lower()# 除了 (a-z, A-Z, ".", "?", "!", ","),将所有字符替换为空格w = re.sub(r"[^a-zA-Z?.!,]+", " ", w)w = w.rstrip().strip()# 给句子加上开始和结束标记# 以便模型知道每个句子开始和结束的位置w = '<start> ' + w + ' <end>'

对中文进行分字处理


def 分字(str):line = str.strip()  pattern = re.compile('[^\u4e00-\u9fa5,。?!]') zh = ''.join(pattern.split(line)).strip()result=''for character in zh:result+=character+' 'return result.strip() 
#调用预处理方法,并返回这样格式的句子对:[chinese, english]
def create_dataset(path, num_examples):lines = io.open(path, encoding='UTF-8').read().strip().split('\n')word_pairs = [[preprocess_sentence(w) for w in l.split('\t')[0:2]]  for l in lines[:num_examples]]return zip(*word_pairs)

def max_length(tensor):return max(len(t) for t in tensor)
#词符化
def tokenize(lang):lang_tokenizer = tf.keras.preprocessing.text.Tokenizer(filters='')lang_tokenizer.fit_on_texts(lang)tensor = lang_tokenizer.texts_to_sequences(lang)tensor = tf.keras.preprocessing.sequence.pad_sequences(tensor,padding='post')return tensor, lang_tokenizer

加载数据集,返回输入张量(中文、英文)目标张量(中文、英文)4个张量

# 创建清理过的输入输出对
def load_dataset(path, num_examples=None):targ_lang, inp_lang = create_dataset(path, num_examples)input_tensor, inp_lang_tokenizer = tokenize(inp_lang)target_tensor, targ_lang_tokenizer = tokenize(targ_lang)return input_tensor, target_tensor, inp_lang_tokenizer, targ_lang_tokenizer

3.主函数运行

if __name__=="__main__":num_examples = 100#读取中英互译文件path_to_file = 'cmn.txt'print('英文预处理效果')print('转换前:'+'he is a "Editor-in-Chief".')print('转换后:'+ preprocess_sentence('he is a "Editor-in-Chief".'))print('中文预处理效果')print('转换前:'+'人工智能程序员这种职业太*&¥%的厉害了!?Are you ok')print('转换后:'+ preprocess_sentence('人工智能程序员这种职业太*&¥%的厉害了!?Are you ok'))en,chs = create_dataset(path_to_file, num_examples)print('处理后的文本数据集示例:')print(en)print(chs)# # 为了快速演示,先处理num_examples条数据集# input_tensor, target_tensor, inp_lang, targ_lang = load_dataset(path_to_file, num_examples)# # 计算目标张量的最大长度 (max_length)# max_length_targ, max_length_inp = max_length(target_tensor), max_length(input_tensor)# # 采用 80 - 20 的比例切分训练集和验证集# input_tensor_train, input_tensor_val, target_tensor_train, target_tensor_val = train_test_split(input_tensor, target_tensor, test_size=0.2)# # 显示长度# print(len(input_tensor_train), len(target_tensor_train), len(input_tensor_val), len(target_tensor_val))# print('经过编码后的源语言(中文)张量数据集示例:')# print(input_tensor)# print('源语言(中文)字典内的单词编码:')# print(inp_lang.word_index)# print('格式化显示一条源语言(中文)字典内的单词编码:')# convert(inp_lang, input_tensor_train[20])# print('经过编码后的目标语言(英文)张量数据集示例:')# print(target_tensor)# print('目标语言(英文)字典内的单词编码:')# print(targ_lang.word_index)# print('格式化显示一条目标语言(英文)字典内的单词编码:')# convert(targ_lang, target_tensor_train[20])# #创建一个tf.data数据集# BUFFER_SIZE = len(input_tensor_train)# BATCH_SIZE = 64# dataset = tf.data.Dataset.from_tensor_slices((input_tensor_train, target_tensor_train)).shuffle(BUFFER_SIZE)# dataset = dataset.batch(BATCH_SIZE, drop_remainder=True)# example_input_batch, example_target_batch = next(iter(dataset))# print('数据集尺寸:')# print(example_input_batch.shape, example_target_batch.shape)

这里注释了部分代码的输出,主要展示翻译部分,如果自行需要可以在文章尾部复制全文自行测试
部分运行结果:我们可以观察到对应的中英文翻译
在这里插入图片描述

在这里附上实战整体代码,可直接下载相关库后运行。

# 创建清理过的输入输出对
import tensorflow as tffrom sklearn.model_selection import train_test_splitimport reimport ioimport jieba
jieba.initialize()  # 手动初始化jieba资源,提高分词效率。
jieba.enable_paddle() # 启动paddle模式。 0.40版之后开始支持,早期版本不支持
#判断是否包含中文
def is_chinese(string):"""检查整个字符串是否包含中文:param string: 需要检查的字符串:return: bool"""for ch in string:if u'\u4e00' <= ch <= u'\u9fa5':return Truereturn False
#中英文预处理
def preprocess_sentence(w):if is_chinese(w):w = re.sub(r"[^\u4e00-\u9fa5,。?!]+", "", w)w = w.strip()#seg_list = jieba.cut(w,use_paddle=True) # 使用paddle模式分词#w= ' '.join(list(seg_list))w=分字(w)# 给句子加上开始和结束标记# 以便模型知道每个句子开始和结束的位置w = '<start> ' + w + ' <end>'else:w = w.lower()# 除了 (a-z, A-Z, ".", "?", "!", ","),将所有字符替换为空格w = re.sub(r"[^a-zA-Z?.!,]+", " ", w)w = w.rstrip().strip()# 给句子加上开始和结束标记# 以便模型知道每个句子开始和结束的位置w = '<start> ' + w + ' <end>'return w
def 分字(str):line = str.strip()  pattern = re.compile('[^\u4e00-\u9fa5,。?!]') zh = ''.join(pattern.split(line)).strip()result=''for character in zh:result+=character+' 'return result.strip() 
# 调用预处理方法,并返回这样格式的句子对:[chinese, english]
def create_dataset(path, num_examples):lines = io.open(path, encoding='UTF-8').read().strip().split('\n')word_pairs = [[preprocess_sentence(w) for w in l.split('\t')[0:2]]  for l in lines[:num_examples]]return zip(*word_pairs)
#判断词序列长度
def max_length(tensor):return max(len(t) for t in tensor)
#词符化
def tokenize(lang):lang_tokenizer = tf.keras.preprocessing.text.Tokenizer(filters='')lang_tokenizer.fit_on_texts(lang)tensor = lang_tokenizer.texts_to_sequences(lang)tensor = tf.keras.preprocessing.sequence.pad_sequences(tensor,padding='post')return tensor, lang_tokenizer
# 创建清理过的输入输出对
def load_dataset(path, num_examples=None):targ_lang, inp_lang = create_dataset(path, num_examples)input_tensor, inp_lang_tokenizer = tokenize(inp_lang)target_tensor, targ_lang_tokenizer = tokenize(targ_lang)return input_tensor, target_tensor, inp_lang_tokenizer, targ_lang_tokenizer
#格式化显示字典内容
def convert(lang, tensor):for t in tensor:if t!=0:print("%d ----> %s" % (t, lang.index_word[t]))
if __name__=="__main__":num_examples = 100#读取中英互译文件path_to_file = 'cmn.txt'print('英文预处理效果')print('转换前:'+'he is a "Editor-in-Chief".')print('转换后:'+ preprocess_sentence('he is a "Editor-in-Chief".'))print('中文预处理效果')print('转换前:'+'人工智能程序员这种职业太*&¥%的厉害了!?Are you ok')print('转换后:'+ preprocess_sentence('人工智能程序员这种职业太*&¥%的厉害了!?Are you ok'))en,chs = create_dataset(path_to_file, num_examples)print('处理后的文本数据集示例:')print(en)print(chs)# # 为了快速演示,先处理num_examples条数据集# input_tensor, target_tensor, inp_lang, targ_lang = load_dataset(path_to_file, num_examples)# # 计算目标张量的最大长度 (max_length)# max_length_targ, max_length_inp = max_length(target_tensor), max_length(input_tensor)# # 采用 80 - 20 的比例切分训练集和验证集# input_tensor_train, input_tensor_val, target_tensor_train, target_tensor_val = train_test_split(input_tensor, target_tensor, test_size=0.2)# # 显示长度# print(len(input_tensor_train), len(target_tensor_train), len(input_tensor_val), len(target_tensor_val))# print('经过编码后的源语言(中文)张量数据集示例:')# print(input_tensor)# print('源语言(中文)字典内的单词编码:')# print(inp_lang.word_index)# print('格式化显示一条源语言(中文)字典内的单词编码:')# convert(inp_lang, input_tensor_train[20])# print('经过编码后的目标语言(英文)张量数据集示例:')# print(target_tensor)# print('目标语言(英文)字典内的单词编码:')# print(targ_lang.word_index)# print('格式化显示一条目标语言(英文)字典内的单词编码:')# convert(targ_lang, target_tensor_train[20])# #创建一个tf.data数据集# BUFFER_SIZE = len(input_tensor_train)# BATCH_SIZE = 64# dataset = tf.data.Dataset.from_tensor_slices((input_tensor_train, target_tensor_train)).shuffle(BUFFER_SIZE)# dataset = dataset.batch(BATCH_SIZE, drop_remainder=True)# example_input_batch, example_target_batch = next(iter(dataset))# print('数据集尺寸:')# print(example_input_batch.shape, example_target_batch.shape)

本部分实战为深度学习的预处理部分,下一文我们将进行深度学习实现机器翻译中英互译
机器翻译:引入注意力机制的Encoder-Decoder深度神经网络训练实战中英文互译(完结篇)

这篇关于机器翻译 深度学习预处理实战(中英文互译)一的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/616928

相关文章

MyBatis分页查询实战案例完整流程

《MyBatis分页查询实战案例完整流程》MyBatis是一个强大的Java持久层框架,支持自定义SQL和高级映射,本案例以员工工资信息管理为例,详细讲解如何在IDEA中使用MyBatis结合Page... 目录1. MyBATis框架简介2. 分页查询原理与应用场景2.1 分页查询的基本原理2.1.1 分

使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解

《使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解》本文详细介绍了如何使用Python通过ncmdump工具批量将.ncm音频转换为.mp3的步骤,包括安装、配置ffmpeg环... 目录1. 前言2. 安装 ncmdump3. 实现 .ncm 转 .mp34. 执行过程5. 执行结

SpringBoot 多环境开发实战(从配置、管理与控制)

《SpringBoot多环境开发实战(从配置、管理与控制)》本文详解SpringBoot多环境配置,涵盖单文件YAML、多文件模式、MavenProfile分组及激活策略,通过优先级控制灵活切换环境... 目录一、多环境开发基础(单文件 YAML 版)(一)配置原理与优势(二)实操示例二、多环境开发多文件版

深度解析Python中递归下降解析器的原理与实现

《深度解析Python中递归下降解析器的原理与实现》在编译器设计、配置文件处理和数据转换领域,递归下降解析器是最常用且最直观的解析技术,本文将详细介绍递归下降解析器的原理与实现,感兴趣的小伙伴可以跟随... 目录引言:解析器的核心价值一、递归下降解析器基础1.1 核心概念解析1.2 基本架构二、简单算术表达

Three.js构建一个 3D 商品展示空间完整实战项目

《Three.js构建一个3D商品展示空间完整实战项目》Three.js是一个强大的JavaScript库,专用于在Web浏览器中创建3D图形,:本文主要介绍Three.js构建一个3D商品展... 目录引言项目核心技术1. 项目架构与资源组织2. 多模型切换、交互热点绑定3. 移动端适配与帧率优化4. 可

深度解析Java @Serial 注解及常见错误案例

《深度解析Java@Serial注解及常见错误案例》Java14引入@Serial注解,用于编译时校验序列化成员,替代传统方式解决运行时错误,适用于Serializable类的方法/字段,需注意签... 目录Java @Serial 注解深度解析1. 注解本质2. 核心作用(1) 主要用途(2) 适用位置3

Java MCP 的鉴权深度解析

《JavaMCP的鉴权深度解析》文章介绍JavaMCP鉴权的实现方式,指出客户端可通过queryString、header或env传递鉴权信息,服务器端支持工具单独鉴权、过滤器集中鉴权及启动时鉴权... 目录一、MCP Client 侧(负责传递,比较简单)(1)常见的 mcpServers json 配置

从原理到实战解析Java Stream 的并行流性能优化

《从原理到实战解析JavaStream的并行流性能优化》本文给大家介绍JavaStream的并行流性能优化:从原理到实战的全攻略,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的... 目录一、并行流的核心原理与适用场景二、性能优化的核心策略1. 合理设置并行度:打破默认阈值2. 避免装箱

Maven中生命周期深度解析与实战指南

《Maven中生命周期深度解析与实战指南》这篇文章主要为大家详细介绍了Maven生命周期实战指南,包含核心概念、阶段详解、SpringBoot特化场景及企业级实践建议,希望对大家有一定的帮助... 目录一、Maven 生命周期哲学二、default生命周期核心阶段详解(高频使用)三、clean生命周期核心阶

Python实战之SEO优化自动化工具开发指南

《Python实战之SEO优化自动化工具开发指南》在数字化营销时代,搜索引擎优化(SEO)已成为网站获取流量的重要手段,本文将带您使用Python开发一套完整的SEO自动化工具,需要的可以了解下... 目录前言项目概述技术栈选择核心模块实现1. 关键词研究模块2. 网站技术seo检测模块3. 内容优化分析模