深度通信网络专栏(4)|自编码器:Blind Channel Equalization using Variational Autoencoders

本文主要是介绍深度通信网络专栏(4)|自编码器:Blind Channel Equalization using Variational Autoencoders,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文地址:https://arxiv.org/abs/1803.01526

文章目录

    • 前言
    • 文章主要贡献
    • 系统模型
      • 变分自编码器
      • 引入神经网络
    • 仿真结果

前言

深度通信网络专栏|自编码器:整理2018-2019年使用神经网络实现通信系统自编码器的论文,一点拙见,如有偏颇,望不吝赐教,顺颂时祺。

文章主要贡献

原来提出的最大似然估计下的盲信道均衡使用期望最大或近似期望最大,计算复杂度过高。

本文提出用变分自编码器(VAE)实现最大似然估计下的盲信道均衡,与恒模算法(CMA)相比可达到更低的ber和更低的信道获取时延。VAE的性能接近非盲自适应线性最小均方误差均衡器。

VAE由两层卷积层和少量自由参数构成,虽然计算复杂度比CMA高,但是需要估计的自由参数个数较少。

系统模型

在这里插入图片描述
一个端到端系统可表示为以上结构, y = x ∗ h + w \mathbf{y}=\mathbf{x} * \mathbf{h}+\mathbf{w} y=xh+w
使用QPSK调制,则 x = x I + j ⋅ x Q \mathrm{x}=\mathrm{x}^{I}+j \cdot \mathrm{x}^{Q} x=xI+jxQ h = h I + j ⋅ h Q \mathbf{h}=\mathbf{h}^{I}+j \cdot \mathbf{h}^{Q} h=hI+jhQ y = y I + j ⋅ y Q \mathbf{y}=\mathbf{y}^{I}+j \cdot \mathbf{y}^{Q} y=yI+jyQ
给定xy 的条件概率函数为:
p θ ( y ∣ x ) = p θ ( y I ∣ x I ) p θ ( y Q ∣ x Q ) = 1 ( π σ w 2 ) N ⋅ e − ∥ y − x ∗ h ∥ 2 / σ w 2 \begin{aligned} p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x}) &=p_{\boldsymbol{\theta}}\left(\mathbf{y}^{I} | \mathbf{x}^{I}\right) p_{\boldsymbol{\theta}}\left(\mathbf{y}^{Q} | \mathbf{x}^{Q}\right) \\ &=\frac{1}{\left(\pi \sigma_{w}^{2}\right)^{N}} \cdot e^{-\|\mathbf{y}-\mathbf{x} * \mathbf{h}\|^{2} / \sigma_{w}^{2}} \end{aligned} pθ(yx)=pθ(yIxI)pθ(yQxQ)=(πσw2)N1eyxh2/σw2

变分自编码器

ML估计,即是估计向量h 和噪声方差 σ w 2 \sigma_{w}^{2} σw2,使得 log ⁡ p θ ( y ) \log p_{\boldsymbol{\theta}}(\mathbf{y}) logpθ(y)最大,令 θ ≜ { h , σ w 2 } \boldsymbol{\theta} \triangleq\left\{\mathbf{h}, \sigma_{w}^{2}\right\} θ{h,σw2}。使用变分法可以简化这一信道估计问题:使用变分法求泛函数 log ⁡ p θ ( y ) \log p_{\boldsymbol{\theta}}(\mathbf{y}) logpθ(y)的极小值,将问题转化为 最大化 log ⁡ p θ ( y ) \log p_{\boldsymbol{\theta}}(\mathbf{y}) logpθ(y)的lower bound!使用神经网络解决此最大最小化问题。

补充:变分法
- 变分法用于求解使泛函数取得极大值或极小值的极值函数
- 泛函数:输入是一个函数,输出是一个值。
- 通常在变分法中,泛函数是一个积分
eg. I ( y ) = ∫ x 1 x 2 F d x I(y)=\int_{x_{1}}^{x_{2}} F d x I(y)=x1x2Fdx,F可以是y(x)和y(x)各阶导数的函数。
- 在这里 p θ ( y ) = ∫ x p ( x ) p θ ( y ∣ x ) d x p_{\boldsymbol{\theta}}(\mathbf{y})=\int_{\mathbf{x}} p(\mathbf{x}) p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x}) d \mathbf{x} pθ(y)=xp(x)pθ(yx)dx ,y是x的函数。

log ⁡ p θ ( y ) ≥ E q Φ ( x ∣ y ) [ − log ⁡ q Φ ( x ∣ y ) + log ⁡ p θ ( x , y ) ] = − D K L [ q Φ ( x ∣ y ) ∥ p ( x ) ] ⎵ A + E q Φ ( x ∣ y ) [ log ⁡ p θ ( y ∣ x ) ] ⎵ B ≜ − L ( θ , Φ , y ) \begin{aligned} \log p_{\boldsymbol{\theta}}(\mathbf{y}) \geq & \mathbb{E}_{q_{\Phi}(\mathbf{x} | \mathbf{y})}\left[-\log q_{\Phi}(\mathbf{x} | \mathbf{y})+\log p_{\boldsymbol{\theta}}(\mathbf{x}, \mathbf{y})\right] \\=& \underbrace{-D_{K L}\left[q_{\Phi}(\mathbf{x} | \mathbf{y}) \| p(\mathbf{x})\right]}_{A} \\ &+\underbrace{\mathbb{E}_{q_{\Phi}(\mathbf{x} | \mathbf{y})}\left[\log p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x})\right]}_{B} \triangleq-\mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y}) \end{aligned} logpθ(y)=EqΦ(xy)[logqΦ(xy)+logpθ(x,y)]A DKL[qΦ(xy)p(x)]+B EqΦ(xy)[logpθ(yx)]L(θ,Φ,y)
引入了自由参数Φ,问题转化为找到θ和Φ,使得 L ( θ , Φ , y ) \mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y}) L(θ,Φ,y)最小。那么如何得到 L ( θ , Φ , y ) \mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y}) L(θ,Φ,y)呢?
分析上式,可知上式与 p θ ( y ∣ x ) p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x}) pθ(yx) q Φ ( x ∣ y ) q_{\Phi}(\mathrm{x} | \mathrm{y}) qΦ(xy) p ( x ) p(\mathbf{x}) p(x)有关,其中: p θ ( y ∣ x ) = p θ ( y I ∣ x I ) p θ ( y Q ∣ x Q ) = 1 ( π σ w 2 ) N ⋅ e − ∥ y − x ∗ h ∥ 2 / σ w 2 \begin{aligned} p_{\boldsymbol{\theta}}(\mathbf{y} | \mathbf{x}) &=p_{\boldsymbol{\theta}}\left(\mathbf{y}^{I} | \mathbf{x}^{I}\right) p_{\boldsymbol{\theta}}\left(\mathbf{y}^{Q} | \mathbf{x}^{Q}\right) \\ &=\frac{1}{\left(\pi \sigma_{w}^{2}\right)^{N}} \cdot e^{-\|\mathbf{y}-\mathbf{x} * \mathbf{h}\|^{2} / \sigma_{w}^{2}} \end{aligned} pθ(yx)=pθ(yIxI)pθ(yQxQ)=(πσw2)N1eyxh2/σw2
p ( x ) = p ( x I ) p ( x Q ) = 2 − 2 N p(\mathbf{x})=p\left(\mathbf{x}^{I}\right) p\left(\mathbf{x}^{Q}\right)=2^{-2 N} p(x)=p(xI)p(xQ)=22N
只需得到 q Φ ( x ∣ y ) q_{\Phi}(\mathrm{x} | \mathrm{y}) qΦ(xy)即可得到 L ( θ , Φ , y ) \mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y}) L(θ,Φ,y),此时可用解析的方法找到θ和Φ。

引入神经网络

在这里插入图片描述

用神经网络来求 q Φ ( x ∣ y ) q_{\Phi}(\mathrm{x} | \mathrm{y}) qΦ(xy) q Φ ( x ∣ y ) = ∏ j = 0 N − 1 q Φ ( x j ∣ y ) = ∏ j = 0 N − 1 q Φ ( x j I ∣ y ) q Φ ( x j Q ∣ y ) q_{\Phi}(\mathrm{x} | \mathrm{y})=\prod_{j=0}^{N-1} q_{\Phi}\left(x_{j} | \mathrm{y}\right)=\prod_{j=0}^{N-1} q_{\Phi}\left(x_{j}^{I} | \mathrm{y}\right) q_{\Phi}\left(x_{j}^{Q} | \mathrm{y}\right) qΦ(xy)=j=0N1qΦ(xjy)=j=0N1qΦ(xjIy)qΦ(xjQy)
神经网络的输出为 q Φ ( x j I ∣ y ) 和 q Φ ( x j Q ∣ y ) q_{\Phi}\left(x_{j}^{I} | \mathbf{y}\right) 和q_{\Phi}\left(x_{j}^{Q} | \mathbf{y}\right) qΦ(xjIy)qΦ(xjQy),输出维度为2N.

至此,我们得到了 L ( θ , Φ , y ) \mathcal{L}(\boldsymbol{\theta}, \mathbf{\Phi}, \mathbf{y}) L(θ,Φ,y)的显示表达。

仿真结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

这篇关于深度通信网络专栏(4)|自编码器:Blind Channel Equalization using Variational Autoencoders的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/659884

相关文章

【Altium】查找PCB上未连接的网络

【更多软件使用问题请点击亿道电子官方网站】 1、文档目标: PCB设计后期检查中找出没有连接的网络 应用场景:PCB设计后期,需要检查是否所有网络都已连接布线。虽然未连接的网络会有飞线显示,但是由于布线后期整板布线密度较高,虚连,断连的网络用肉眼难以轻易发现。用DRC检查也可以找出未连接的网络,如果PCB中DRC问题较多,查找起来就不是很方便。使用PCB Filter面板来达成目的相比DRC

通信系统网络架构_2.广域网网络架构

1.概述          通俗来讲,广域网是将分布于相比局域网络更广区域的计算机设备联接起来的网络。广域网由通信子网于资源子网组成。通信子网可以利用公用分组交换网、卫星通信网和无线分组交换网构建,将分布在不同地区的局域网或计算机系统互连起来,实现资源子网的共享。 2.网络组成          广域网属于多级网络,通常由骨干网、分布网、接入网组成。在网络规模较小时,可仅由骨干网和接入网组成

ROS话题通信流程自定义数据格式

ROS话题通信流程自定义数据格式 需求流程实现步骤定义msg文件编辑配置文件编译 在 ROS 通信协议中,数据载体是一个较为重要组成部分,ROS 中通过 std_msgs 封装了一些原生的数据类型,比如:String、Int32、Int64、Char、Bool、Empty… 但是,这些数据一般只包含一个 data 字段,结构的单一意味着功能上的局限性,当传输一些复杂的数据,比如:

Toolbar+DrawerLayout使用详情结合网络各大神

最近也想搞下toolbar+drawerlayout的使用。结合网络上各大神的杰作,我把大部分的内容效果都完成了遍。现在记录下各个功能效果的实现以及一些细节注意点。 这图弹出两个菜单内容都是仿QQ界面的选项。左边一个是drawerlayout的弹窗。右边是toolbar的popup弹窗。 开始实现步骤详情: 1.创建toolbar布局跟drawerlayout布局 <?xml vers

BD错误集锦1——[Hive]ERROR StatusLogger No log4j2 configuration file found. Using default configuration:

错误描述:在使用IDEA进行jdbc方式连接到hive数据仓库时,出现以下错误:                ERROR StatusLogger No log4j2 configuration file found. 问题原因:缺少log4j2.xml文件   <?xml version="1.0" encoding="UTF-8"?><Configuration><Appender

使用JWT进行安全通信

在现代Web应用中,安全通信是至关重要的。JSON Web Token(JWT)是一种流行的安全通信方式,它允许用户和服务器之间安全地传输信息。JWT是一种紧凑的、URL安全的表示方法,用于在两方之间传输信息。本文将详细介绍JWT的工作原理,并提供代码示例帮助新人理解和实现JWT。 什么是JWT? JWT是一种开放标准(RFC 7519),它定义了一种紧凑且自包含的方式,用于在各方之间以JSO

好书推荐《深度学习入门 基于Python的理论与实现》

如果你对Python有一定的了解,想对深度学习的基本概念和工作原理有一个透彻的理解,想利用Python编写出简单的深度学习程序,那么这本书绝对是最佳的入门教程,理由如下:     (1)撰写者是一名日本普通的AI工作者,主要记录了他在深度学习中的笔记,这本书站在学习者的角度考虑,秉承“解剖”深度学习的底层技术,不使用任何现有的深度学习框架、尽可能仅使用基本的数学知识和Python库。从零创建一个

【图像识别系统】昆虫识别Python+卷积神经网络算法+人工智能+深度学习+机器学习+TensorFlow+ResNet50

一、介绍 昆虫识别系统,使用Python作为主要开发语言。通过TensorFlow搭建ResNet50卷积神经网络算法(CNN)模型。通过对10种常见的昆虫图片数据集(‘蜜蜂’, ‘甲虫’, ‘蝴蝶’, ‘蝉’, ‘蜻蜓’, ‘蚱蜢’, ‘蛾’, ‘蝎子’, ‘蜗牛’, ‘蜘蛛’)进行训练,得到一个识别精度较高的H5格式模型文件,然后使用Django搭建Web网页端可视化操作界面,实现用户上传一

基于深度学习的轮廓检测

基于深度学习的轮廓检测 轮廓检测是计算机视觉中的一项关键任务,旨在识别图像中物体的边界或轮廓。传统的轮廓检测方法如Canny边缘检测和Sobel算子依赖于梯度计算和阈值分割。而基于深度学习的方法通过训练神经网络来自动学习图像中的轮廓特征,能够在复杂背景和噪声条件下实现更精确和鲁棒的检测效果。 深度学习在轮廓检测中的优势 自动特征提取:深度学习模型能够自动从数据中学习多层次的特征表示,而不需要

使用 GoPhish 和 DigitalOcean 进行网络钓鱼

配置环境 数字海洋VPS 我创建的丢弃物被分配了一个 IP 地址68.183.113.176 让我们登录VPS并安装邮件传递代理: ssh root@68.183.113.176apt-get install postfix 后缀配置中的点变量到我们在 DigitalOcean 中分配的 IP:mynetworks nano /etc/postfix/main.cf