You are on page 1of 3

2021.11.

01-06 周报

陈保罗

摘要
又看了篇MEC的论文

I. 上周工作计划回顾
看了第一篇论文,

II. 本周工作内容
A. 工作内容
看 了 An Integrated Optimization-Learning Framework for Online Combinatorial
Computation Offloading in MEC Networks。参加小组会。
B. 学习收获
标题:在移动边缘计算中为了在线组合卸载计算的集成优化学习框架

01卸载
行动集会随着网络规模扩大而急剧变大
变化:信道变化 任务到达顺序变化
约束:平均功耗约束 队列稳定性约束
分类:模型-优化算法 无模型-机器学习(?)
优点:训练易于收敛
参数:o 信道,任务到达顺序,可重复利用的能源 。I 电池等级,数据排队长度,
cpu频率,传输功率

方法:DNN生成卸载策略 然后批评模块用传统优化方法 来获得资源分配解决方案


资源分配 简化成一个分类问题.

名词解释

强耦合:互相影响?

mixed-integer nonlinear programming (MINLP) 混合整数非线性规划:

computation offloading problem (COP):卸载计算问题


Lyapunov optimization technique :稳定与时延的平衡?
李雅普诺夫函数(其实我没懂,我理解到的大概是): 首先假设在一个坐标系里,
有一个x dot=f(x),所有的x dot最终都指向一个x*。然后设一个V(x)(一个标量),
其中V(x*)=0,而V(x)>0(x不等于x*),不同的x dot有些会有相同的V(x),也就是如,
V(x)=1在坐标系里会连成一圈(类似于等势?),然后这个V(x)就是李雅普诺夫函
数。然后将x dot与该点所在位置的V(x)的梯度做内积,会得到一个小于零的数。
李雅普诺夫漂移:如果在时间上定义李雅普诺夫函数,设其为L(t),那么两个时
隙之间的L(t)的差就是李雅普诺夫漂移,ΔL(t)= L(t+1)- L(t)。
新的那片里有较为详细的使用李雅普诺夫优化的过程,到时候和具体的例子对比着
看吧。(https://blog.csdn.net/u010643777/article/details/103751279这是将lyapunov优
化的一个帖子,但还没看懂…)

Relaxation-based approaches:将离散的变量松弛成连续的变量

linear relaxation(LR):线性松弛 将01整数规划,替换为要求比较低的变量


属于[0,1]区间就好了。

semidefinite relaxation (SDR):半正定松弛(?)目的是将一个非凸的问题转化为凸


问 题 。( https://blog.csdn.net/weixin_39274659/article/details/117627627 没 看 懂 先 存
链接)

Local-search-based approaches:基于本地搜索

coordinate descent (CD) method:坐标下降法。一种非梯度优化算法。算法在每次迭


代中,在当前点处沿一个坐标方向进行一维搜索以求得一个函数的局部极小值。在
整个过程中循环使用不同的坐标方向。

Gibbs sampling:(https://blog.csdn.net/pipisorry/article/details/51373090 )

genetic algorithm (GA):(https://www.jianshu.com/p/ae5157c26af9)

C. 关键问题
还是有很多名词和方法没听过(不理解)多看论文慢慢来吧(有的放了链接还没
看懂之后继续看)…
D. 其他想法(可选)

III. 下周工作计划
尝 试 去 看 那 篇 Lyapunov-guided Deep Reinforcement Learning for Stable Online
Computation Offloading in Mobile-Edge Computing Networks。(但是这篇有很多的
推演的公式,不知道能不能看得懂….)然后继续听朱博讲论文。然后再开始学一
学凸优化(先在b站看看中科大的视频课)

You might also like