20190624论文略读

2023-10-08 09:10
文章标签 论文 略读 20190624

本文主要是介绍20190624论文略读,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Intelligent Reflecting Surface Enhanced
Wireless Network via Joint Active and Passive
Beamforming
Qing Wu Rui Zhang

累计短语:
be envisioned to be 被期望成为
superposed 叠加的
to tackle this problem
asymptotic performance 渐进的分析
demonstrate 证明
drastically 彻底地,激烈地

Trivial knowledge

  1. Circular symmetric Gaussian Random Variable
    A complex Gaussian random vector Z \bf Z Z is circularly symmetric if e j ϕ Z e^{j\phi} \bf Z ejϕZ has the same distribution as Z \bf Z Z for all real ϕ \phi ϕ

  2. quasi-static flat fading model

  3. MRT 最大传输

Abstract

文章首先说明IRS是备受关注的一项具有广大研究前景的技术,并介绍了本文的设置
Setup: IRS-aided MISO, 从Single User 扩展到 Mutli User (all with single antenna)
模型: 目标:最小化 总的传输功率
约束: SINR (信干比约束)(单用户,无此约束)
方式: 联合优化AP的active beamforming 和 IRS的passive beamforming
算法: 在Single User的情况: 引入了SDR和Alternative optimization的算法来求解
这两种算法提供了lower bounds和upper bounds (upper bounds是什么鬼?不是最小化么?)
Muti-User的情况
也是上面的两种算法
仿真: 仿真结果说明了提出的两种suboptimal的算法比benchmarks 提供了更好的增益,并说明IRS相对于无IRS 在transimit power 和 coverage performance的优越性
理论: 分析了 total beamforming gain 的asymptotic performance over IRS-elements N

System Model

在这里插入图片描述
Note: IRS 有两种工作模式: 接收—信道估计; 发射----数据传输

Assumption
  1. 经过IRS反射多次的信号功率可忽略不计
  2. CSI完全已知
  3. TDD协议( 信道互异性)
  4. AP端线性precoding(不太明白线性是啥意思)
Model Multi-User

在这里插入图片描述

首先考虑Single User情况:

在这里插入图片描述
利用MRT准则将P2等价于 最大化信道增益,(向量的2范数平方),并利用homogeneous QCQP 【18】将该式松弛为:
在这里插入图片描述
利用[18]里的centralized algorithm可以限制rank(V)=1;(该算法保证了pi/4的最优近似)

Centralized algorithm的主要步骤如下:

对SDR求得的V 进行奇异值分解,构造 v ˉ = U Σ 1 2 r \bar{\bf v} = \bf{U\Sigma^{\frac{1}{2}}r} vˉ=UΣ21r r ∼ C N ( 0 , I ) r \sim \mathcal{CN}(0,\bf{I}) rCN(0,I)
随机生成 r \bf r r,并找到其中醉倒的,令 v = e j a r g v ˉ [ 1 : N − 1 ] v [ N ] ˉ {\bf v} = e^{j arg \frac{\bar{\bf v}[1:N-1]}{ \bar{\bf v[N] }}} v=ejargv[N]ˉvˉ[1:N1]

Alternating Optimization

主要思路: 固定 w w w,求 Θ \Theta Θ,利用柯西不等式,只要两个相位align起来就好了
align的意思就是相位相同,想象在复平面上,两个复数相加就行了

显然这两种算法都是suboptimal的,但是AO的复杂度低得多,因为表达式是闭式的,而且他的仿真显示效果完全类似

MultiUser

注意这里在多用户建模的时候,IRS的 Θ \Theta Θ是公用的,之前听Renzo说还有将IRS拆开的,感觉那样并不好,少了挺多增益的,但是目前没有想到什么好的办法,可以先看以下以前的多用户是怎么处理的。

这里作者给出了两种算法,一种是先求解P3得到optimized beamforming vector w for given θ \theta θ,再 given θ \theta θ 优化 w w w,交替迭代 ,并且作者证明了这样的算法是non-deacreasing的,另外一种就是类似single user的,但是后面有一点没说明白,关于QCQP还没仔细看

Two-stage algorithm

decoupling it two subproblems:
(1) optimize the phase shifts by solving a weighted effective channel gain maximization problem
(2) sovle (P3) to obtain the MMSE-based transmit beamforming given the phase shifts

在这里插入图片描述
在这里插入图片描述
先将(P5)像single case 那样转化成 homogeneous QCQP,(怎么转化???),再利用centralized 算法求解,得到 θ \theta θ之后再求解(P3)

Conclusion

Simulation 部分没仔细看,主要的setup之前写过就算了
本篇文章 技术部分不难, 我感觉主要还是一个新的field所以就很nice,抓紧时间把所有的论文看完 记得看QCQP

这篇关于20190624论文略读的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/164210

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

引言 今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 大语言模型已被广泛采用,但推理时需要大量的GPU内存。我们开发了一种Int8矩阵乘法的过程,用于Transformer中的前馈和注意力投影层,这可以将推理所需

2024 年高教社杯全国大学生数学建模竞赛 C 题 农作物的种植策略 参考论文 无水印

持续更新中,2024年数学建模比赛思路代码论文都会发布到专栏内,只需订阅一次!  完整论文+代码+数据结果链接在文末!  订阅后可查看参考论文文件 第一问 1.1 问题重述 这个问题围绕的是华北山区的某乡村,在有限的耕地条件下,如何制定最优的农作物种植策略。乡村有 34 块露天耕地和 20 个大棚,种植条件包括粮食作物、蔬菜、水稻和食用菌。除了要考虑地块的面积、种植季节等,还要确保

论文精读-Supervised Raw Video Denoising with a Benchmark Dataset on Dynamic Scenes

论文精读-Supervised Raw Video Denoising with a Benchmark Dataset on Dynamic Scenes 优势 1、构建了一个用于监督原始视频去噪的基准数据集。为了多次捕捉瞬间,我们手动为对象s创建运动。在高ISO模式下捕获每一时刻的噪声帧,并通过对多个噪声帧进行平均得到相应的干净帧。 2、有效的原始视频去噪网络(RViDeNet),通过探

2024年全国大学生数学建模A题借鉴论文

问题  1: 舞龙队的动态位置与速度计算 1. **螺旋线的几何建模**:根据题目描述,舞龙队沿着等距螺旋线前进。螺旋线的螺距为 55 cm, 需根据极坐标公式确定每节板凳的位置。 -  极坐标螺旋线方程:\( r = a + b\theta \), 其中  \( b \)  是螺距, 可以利用该方程计算 每秒舞龙队的各个节数的坐标。 2. **速度计算**:给定龙头的行进速度为 1 m/s ,