ECOC 2020 Th1D-4 End-to-End Deep Learning for Phase Noise-Robust Multi-Dimensional Geometric Shaping

本文主要是介绍ECOC 2020 Th1D-4 End-to-End Deep Learning for Phase Noise-Robust Multi-Dimensional Geometric Shaping,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

有作者在ECOC上讲的视频

https://www.youtube.com/watch?v=8pLfItf_yws&t=271s

一种针对相位噪声的端到端学习模型,在autoencoder中加入了卷积层,模型有2dB的增益。

背景:

相位噪声是相干光通信系统中很大的问题,有很多关于载波相位估计和相位噪声增强技术。比如,log-likelihood ratio (LLR)用来处理参与相位噪声,高位调制用来补偿非线性相位噪声。

深度学习最近引起了很多关注,深度学习在均衡非线性,码型识别,链路监测,资源分配,端到端系统设计上都发挥了很大作用,基于这些,深度神经网络被用来编码,作为调制器,解调器和均衡器。但是,单端神经网络可能不是最优的,端到端的设计可以同时优化发射机和接收机,通过高阶调制格式和解码器的共同优化,端到端能够在多种光通信系统中实现高的整形增益。

在多数端到端结构中,都使用的one-hot编码,导致在实际应用中码字长度是较小的。这篇文章中的端到端方案能够实现更长码字并且增强了对相位噪声的稳健性。E2E框架采用了与深层自动编码器集成的尾比特卷积嵌入层(这又是啥),以处理码字长度和残余相位噪声。

本文主要贡献点:

1.把深度学习用于E2E框架中的高维调制星座图和DNN解映射器的联合优化,以用于光通信信道。 (这个不是创新点,很多文章都做过了)

2.使用卷积嵌入层研究了相位噪声稳健的E2E模型,该模型能够扩展到更大的码字长度。

3.我们验证了E2E模型可以实现接近Polyanskiy边界的高整形增益

4.在强相位噪声情况下,E2E模型有2dB的增益

系统:

和普通端到端学习系统不同的地方在符号不是使用one-hot编码,而是用k bit表示,并且还用了咬尾比特卷积嵌入层去提高计算效率,输入x长度是k,用咬尾(tail-biting,我实在不知道这个怎么翻译)变成了k+m-1的长度,就是把x的最后m-1位放在x的头上,应该就是循环扩展,不知道为什么作者要用咬尾这样的词,图像边缘处理有这种方法,然后把m个bit通过embedding层长度变为L,步长为1,这样卷积层输出就是xe=K*L,这篇文章中m=3,L=8。(小疑问,这里的m=3到底是比特表示还是one-hot?)

embedding层的一般作用是升维或者降维,可以将one-hot编码,从稀疏态变成密集态,并且让相互独立向量变成了有内在联系的关系向量,一般是使用线性变换

编码器实现为前馈MLP,由输入层,一个使用tanh激活的隐藏层和一个输出层组成,然后是功率归一化层。输入层的大小为K*L,等于嵌入层的输出xe,输出层大小为N,可产生(N,K)编码。(N,K)表示传输位数为N,但是实际位数为K,增加了冗余

相位噪声信道可以建模为r=exp(j\theta)s+w,r是接收信号,s是发送信号,w是高斯白噪声,theta是残余相位噪声,是均值为0,方差为\sigma^2_\rho的高斯分布。在相干光通信中,相位噪声可能来自激光光谱线宽,光纤非线性,不完美的相位恢复等。

解码器也是前馈MLP,由输入层,一个具有tanh激活功能的隐藏层和一个输出层组成。输入层和输出层的大小分别等于N和K。隐藏层大小等于输入层和输出层大小的总和。解码器的输出层使用sigmoid激活函数输出估计值x'。使用二进制交叉熵(BCE)损失来训练E2E网络,因此DNN输出可以直接输入软判决FEC,无需外部LLR转换器(不是很懂这句话)。

结果分析:

评估了端到端学习系统对AWGN信道和PN信道的性能,图2比较了AWGN信道E2E和BCH(一种纠错码)最大似然解码,没有比(7,4)BCH code更好的线性纠错码了,从图中可看出,E2E比BCH-MLD好了1dB,表明E2E设计有几何整形增益好于性能最好的线性码,E2E模型也好于Polyanskiy的边界,这是由于NA(Polyanskiy normal approximation (NA))在较小的代码字长度下较为宽松(表现较差)。

图3 E2E好于BCH,差于NA,表明E2E能在AWGN信道中接近Polyanskiy NA的很好的性能

图4是PN信道性能比较,红实心点线比蓝实心点线好,PN-robust E2E好于E2E,好2dB,表明PN-robust可以补偿PN损伤,没PN情况下性能相近

小结:

我们提出了一种新的E2E设计,该设计采用卷积嵌入层可将码字扩展到任意长度。我们证明了,E2E性能优于最佳线性编码,并在接近Polyanskiy边界的情况下获得很高的整形增益。展示了在存在较大相位噪声的情况下,可感知相位噪声的E2E方法可实现2 dB的增益。

 

点评:

他说用embedding主要的好处是能用更大的码字长度,但是这篇文章里面embedding用的是升维不是降维啊,文中这里没有解释的很清楚,为什么embedding用了之后性能会提升

这个没做实验啊,都是仿真

不知道相位噪声给得多大?

 

这篇关于ECOC 2020 Th1D-4 End-to-End Deep Learning for Phase Noise-Robust Multi-Dimensional Geometric Shaping的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/674370

相关文章

usaco 1.3 Mixing Milk (结构体排序 qsort) and hdu 2020(sort)

到了这题学会了结构体排序 于是回去修改了 1.2 milking cows 的算法~ 结构体排序核心: 1.结构体定义 struct Milk{int price;int milks;}milk[5000]; 2.自定义的比较函数,若返回值为正,qsort 函数判定a>b ;为负,a<b;为0,a==b; int milkcmp(const void *va,c

2014 Multi-University Training Contest 8小记

1002 计算几何 最大的速度才可能拥有无限的面积。 最大的速度的点 求凸包, 凸包上的点( 注意不是端点 ) 才拥有无限的面积 注意 :  凸包上如果有重点则不满足。 另外最大的速度为0也不行的。 int cmp(double x){if(fabs(x) < 1e-8) return 0 ;if(x > 0) return 1 ;return -1 ;}struct poin

2014 Multi-University Training Contest 7小记

1003   数学 , 先暴力再解方程。 在b进制下是个2 , 3 位数的 大概是10000进制以上 。这部分解方程 2-10000 直接暴力 typedef long long LL ;LL n ;int ok(int b){LL m = n ;int c ;while(m){c = m % b ;if(c == 3 || c == 4 || c == 5 ||

2014 Multi-University Training Contest 6小记

1003  贪心 对于111...10....000 这样的序列,  a 为1的个数,b为0的个数,易得当 x= a / (a + b) 时 f最小。 讲串分成若干段  1..10..0   ,  1..10..0 ,  要满足x非递减 。  对于 xi > xi+1  这样的合并 即可。 const int maxn = 100008 ;struct Node{int

简单的Q-learning|小明的一维世界(3)

简单的Q-learning|小明的一维世界(1) 简单的Q-learning|小明的一维世界(2) 一维的加速度世界 这个世界,小明只能控制自己的加速度,并且只能对加速度进行如下三种操作:增加1、减少1、或者不变。所以行动空间为: { u 1 = − 1 , u 2 = 0 , u 3 = 1 } \{u_1=-1, u_2=0, u_3=1\} {u1​=−1,u2​=0,u3​=1}

简单的Q-learning|小明的一维世界(2)

上篇介绍了小明的一维世界模型 、Q-learning的状态空间、行动空间、奖励函数、Q-table、Q table更新公式、以及从Q值导出策略的公式等。最后给出最简单的一维位置世界的Q-learning例子,从给出其状态空间、行动空间、以及稠密与稀疏两种奖励函数的设置方式。下面将继续深入,GO! 一维的速度世界 这个世界,小明只能控制自己的速度,并且只能对速度进行如下三种操作:增加1、减

Deep Ocr

1.圈出内容,文本那里要有内容.然后你保存,并'导出数据集'. 2.找出deep_ocr_recognition_training_workflow.hdev 文件.修改“DatasetFilename := 'Test.hdict'” 310行 write_deep_ocr (DeepOcrHandle, BestModelDeepOCRFilename) 3.推理test.hdev

2020年SEO行业发展变化和趋势分析!

一、搜索引擎算法发展轨迹 第一阶段:人工目录(1997年-2001年“雅虎早期搜索模式”); 第二阶段:文本分析(2001年-2004年“以关键词和背景颜色一样,堆积大量关键词,就会有非常好的排名; 第三阶段:链接分析(2004年-2009年“以反向链接为核心算法的阶段”),这时行业内有句话是内容为王,外链为皇; 第四阶段:智能分析(2009年-现在“以满足用户人性化需求的用户浏览行为分析

Java多线程编程模式实战指南:Two-phase Termination模式

文章来源: http://www.infoq.com/cn/articles/java-multithreaded-programming-mode-two-phase-termination?utm_source=infoq&utm_campaign=user_page&utm_medium=link 文章代码地址: https://github.com/Visce

2020年数据术语的故事

点击上方蓝色字体,选择“设为星标” 回复”资源“获取更多资源 2020年整个技术圈子要说话题最多的,应该是大数据方向。新感念层出不穷,数据湖概念就是其中之一。这篇文章是关于数据仓库、数据湖、数据集市、数据中台等一些列的概念和发展进程。希望给大家带来一个全面的感知。 本文作者:Murkey学习之旅、开心自由天使 本文整理:大数据技术与架构,未经允许不得转载。 如今,随着诸如互联网以及物联网等