本文主要是介绍基于seq2seq的中国对联自动配对技术实践,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Sequence to Sequence模型这种基于编码--解码的模型已经被谷歌成功应用于机器翻译上。而理论上任意的序列到序列的有监督问题都可以用这种模型。如上一篇文章写的古诗生成。包括这一篇实践性的对联配对。
对对联生成过程中,需要使用LSTM来实现,然后需要设置其编码与解码的相关参数。如下所示:
# 创建基本的LSTM单元
cells = [tf.contrib.rnn.DropoutWrapper(tf.contrib.rnn.BasicLSTMCell(embedding_dim), output_keep_prob=keep_prob) for i in range(3)]stacked_lstm = tf.contrib.rnn.MultiRNNCell(cells)with tf.variable_scope('decoders') as scope:# feed_previous=False, for trainingdecode_outputs, decode_state = tf.contrib.legacy_seq2seq.embedding_rnn_seq2seq(encode_input,decode_input,stacked_lstm,num_encoder_symbols=input_vocab_size,num_decoder_symbols=output_vocab_size,embedding_size=embedding_dim)scope.reuse_variables()decode_outputs_test, decode_state_test = tf.contrib.legacy_seq2seq.embedding_rnn_seq2seq(encode_input,decode_input,stacked_lstm,num_encoder_symbols=input_vocab_size,num_decoder_symbols=output_vocab_size,embedding_size=embedding_dim,feed_previous=True)loss_weights = [tf.ones_like(l, dtype=tf.float32) for l in labels]
loss = tf.contrib.legacy_seq2seq.sequence_loss(decode_outputs, labels, loss_weights, output_vocab_size)optimizer = tf.train.AdamOptimizer(0.001)
train_op = optimizer.minimize(loss)
(2) 测试例子如下:其中挂号内为原有的配对。
测试例子:
悼念先严三周年▁▁▁(痛表后生一片心▁▁▁) -> 诗留人间百年诗▁▁▁
百岁人歌长寿酒▁▁▁(万载花开太平春▁▁▁) -> 千秋再爱自长春▁▁▁
黄花酿酒三杯醉▁▁▁(绣阁增辉两烛燃▁▁▁) -> 碧水池霜百岁人▁▁▁
艳阳照大厦春华竞发▁(甘露洒人间瑞气勃生▁) -> 看日开新地壮天更高▁
延龄人种神仙草▁▁▁(纪竹新开甲子花▁▁▁) -> 蜜月欣逢百岁图▁▁▁
测试例子:
白发朱颜喜登上寿▁▁(丰衣足食乐享晚年▁▁) -> 丰山足食享享高秋▁▁
体健神恰晚景好▁▁▁(书声墨韵老来红▁▁▁) -> 天明萱草喜无鸯▁▁▁
大好良辰春光明媚▁▁(重开令甲上寿期颐▁▁) -> 文明盛世喜此如山▁▁
宝马迎来云外客▁▁▁(香车送出月中仙▁▁▁) -> 金牛犁栋喜雄风▁▁▁
莲子杯中金各酒▁▁▁(桃花盏上玉台诗▁▁▁) -> 桃香嫩柳柳丝凰▁▁▁
赏灯极乐繁华地▁▁▁(秉灯同游不夜天▁▁▁) -> 养手同来幸福花▁▁▁
寒笳送走人间腊▁▁▁(晓角吹回雪里春▁▁▁) -> 夜雨梅花蝶萝香▁▁▁
知识鼓满青春风帆▁▁(劳动展开爱情羽翼▁▁) -> 赤策文章浩气清风▁▁
贮在玉壶由人造▁▁▁(结成晶块夺天工▁▁▁) -> 誓知甘作口子余▁▁▁
灰飞薛管声谐凤▁▁▁(玉种蓝田兆梦熊▁▁▁) -> 何洁堪媳荐良仑▁▁▁
针对这两种测试,也验证了人工智能是否真的会创作。利用这种seq2seq写出的古诗或者对联,的确会出现训练集合外的句子,非常有意思,完全是创作的味道。不过呢,目前的仅仅还是测试例子,对语义上有些地方,特别是里面的思想和语义理解还有待深入。这可能需要更多的知识、常识、典故等的配合。
这篇关于基于seq2seq的中国对联自动配对技术实践的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!