智能网联汽车与5G通信技术结合,为无人自动驾驶服务提供关键技术支撑,以支持车载终端设备深度神经网络学习与推理计算任务[1]。由于车载终端距离云数据中心较远,其高延迟难以保障车辆智能驾驶相关推理任务的服务质量(Quality of Service, QoS)[2]。为克服移动云计算高延迟的缺点,移动边缘计算(Mobile Edge Computing, MEC)[3]通过将云计算的算力部署在移动终端附近,例如路边单元(Road Side Unit, RSU)等,大大降低了移动云计算的传输通信延迟[4]。然而,实际应用中为覆盖所有区域而放置大量边缘服务器往往因成本控制而不可行。因此,在低密度部署下,RSU在高峰时段随着车辆数量的增加,将不可避免地出现计算负载过载,损害车辆推理任务的QoS。为解决该问题,车辆雾计算(Vehicle Fog Computing, VFC)[5]通过充分利用高配车辆车载计算机的空闲算力资源[6],可有效减轻RSU的负载[7]。
现有移动边缘计算研究大多考虑在服务缓存与任务卸载方面优化系统吞吐量、处理延迟以及设备能耗等问题,而较少考虑服务公平性。在系统吞吐量优化中,文献[8]研究了在延迟约束下的车辆优先级异构任务RSU卸载问题,设计了基于深度强化学习的卸载算法以最大化累积任务优先完成率,然而其未考虑RSU算力、存储等资源约束。文献[9]研究了在服务模型加载延迟存在下的服务缓存与请求卸载问题,并设计了近似算法与贪心算法最大化系统吞吐量。文献[10]在边云协同场景中联合研究了多子任务并行下的卸载问题,在延迟约束下最大化服务推理吞吐量。然而,文献[9-10]假设边缘端拥有较充分的算力资源。在处理延迟优化中,文献[11]在算力约束下,提出了一个在线任务卸载算法以最小化所有任务的总延迟。文献[12]在算力、带宽资源约束下研究了车联网中车到车的随机任务卸载延迟问题,使用李雅普诺夫优化与分布式在线算法优化系统延迟能耗权衡。文献[13]研究了服务缓存和请求路由的联合优化问题,提出了一个深度强化学习算法以最小化任务的平均时延。在设备能耗优化中,文献[14]研究了一个多源多中继的无线传感器边缘网络的能耗问题,提出了一种基于二分匹配的最优加权平均总能耗算法以最小化任务执行能耗。文献[15]考虑了WiFi网络和蜂窝网络并存的异构网络场景,提出了一个联合服务部署与任务缓存的管理问题,设计了一个基于交替优化技术的迭代算法来最小化终端设备的能耗。文献[16]研究了车辆边缘计算中依赖性任务感知的服务部署与请求卸载问题,设计了一种基于动态规划的半分布式算法以降低车辆的能耗。然而,上述研究均假设网络控制节点可以全局感知节点的算力,且接收任务节点将自己的可用算力完全用于协助服务请求节点,鉴于用户自私性,这一假设在现实场景中过于理想化。
此外,移动边缘计算在实际执行中仍面临缺失公平服务机制、缺少有效的激励机制等亟待解决的难题。首先,车辆自身资源和能耗受限,为其他车辆提供边缘计算服务将占用对应资源并消耗其自身电量,因此亟需提供相应的激励机制,作为车辆协助RSU计算服务的补偿。其次,如果优化系统总吞吐量,会导致小计算量推理任务比大计算量推理任务优先被车辆卸载处理,从而造成请求服务车辆之间的不公平服务。文献[17]针对自私性问题,研究了基于合同的匹配激励机制,优化车载任务的完成时间,然而其假设服务模型已经部署,且忽视了动态任务卸载带来的不公平服务问题。文献[18]采用遗传算法解决了面向任务级别的服务公平性调度问题,然而其忽略了节点自私性且假设边缘节点资源充足。
为解决上述存在的问题,本研究主要贡献为:
(1) 针对提供服务车辆的自私性,提出一种新的合同激励机制,鼓励高配车辆出让其计算资源以降低高峰时期的RSU服务器负载,并给出了完整的合同模型设计,用卡罗需−库恩−塔克(Karush-Kuhn-Tucker, KKT)条件求解合同最优值和面向VFC网络的合同生成算法。
(2) 针对服务请求车辆的自私性,从公平性的新颖角度出发,基于最大最小公平性原则,在提供服务车辆存储资源、算力资源以及计算任务完成时间约束下,以最大化最小的任务完成率为优化目标,提出了面向VFC网络的任务卸载与服务缓存联合优化问题,并证明了该问题的NP难解性。
(3) 提出了基于合同的随机舍入算法解决任务卸载与服务缓存的联合优化问题,并给出了近似比证明。同时,针对随机舍入策略复杂度较高的不足,还提出了一个快速高效的基于合同的贪心算法。实验结果表明,提出的两个算法可有效提升最小服务完成率。
1 系统模型如图1所示的车联网,由一个宏基站与若干RSU以及多辆车组成,宏基站通过有线光纤与各个RSU相连,RSU通过无线通信与覆盖范围内的车辆相连。设
|
图 1 车对车雾计算网络模型 Figure 1 Vehicle-to-vehicle fog computing network model |
令0-1二元变量
| $ x_m^v=\left\{{\begin{array}{*{20}{l}}1,&\text{表示车辆}m\text{缓存模型}v\\0,&\text{其他}\end{array}} \right.,m\in{\cal{M}},v\in{\cal{V}} $ | (1) |
假设每个车辆发送的一个计算任务对应一个服务模型。令0-1二元变量
| $ y_i^v=\left\{{\begin{array}{*{20}{l}}1,&\text{表示车辆}i\text{请求模型}v\\0,&\text{其他}\end{array}} \right.,i\in{\cal{I}},v\in{\cal{V}} $ | (2) |
令0-1二元变量
| $ {z}_{m}^{i}=\left\{ {\begin{array}{*{20}{l}} 1,&\text{表示车辆}i{\text{卸载任务到}}m\\ 0,&\text{其他}\end{array}} \right.,i\in {\cal{I}},m\in {\cal{M}}$ | (3) |
请求车辆发出的计算任务既可以被服务车辆处理,也可以在RSU上处理,故有约束
| $ \sum\limits_{m \in {\cal{M}} \cup {\text{RSU}}} {z_m^i} = 1,i \in {\cal{I}} $ | (4) |
请求车辆发出的计算任务如果能被服务车辆处理,其前提是该服务车辆一定缓存有对应的服务模型,故有约束
| $ y_i^vz_m^i \leqslant x_m^v,i \in {\cal{I}},m \in {\cal{M}},v \in {\cal{V}} $ | (5) |
缓存服务模型需要消耗车辆的存储资源,然而车辆提供的存储资源有限,服务部署时所存储的模型总和不能超过已提供存储资源的上限,故有约束
| $ \sum\limits_{v \in {\cal{V}}} {x_m^v{c_v}} \leqslant R_m^{\max },m \in {\cal{M}} $ | (6) |
式中:
在任务卸载场景中,请求车辆发出任务后,在RSU的帮助下可以通过V2V通信和正交频分多址(Orthogonal Frequency Division Multiple Access, OFDMA) 技术与服务车辆建立无线连接。设请求车辆
| $ {r_{i,m}} = {b_{i,m}}{\log _2}\bigg(1 + \frac{{{p_i}{H_{i,m}}}}{{\sigma _m^2}}\bigg) ,i \in {\cal{I}},m \in {\cal{M}} $ | (7) |
式中:
无线信道功率增益的公式为
| $ {H_{i,m}} = {({L_{i,m}}) ^{ - n}}{\left| {{h_{i,m}}} \right|^2},i \in {\cal{I}},m \in {\cal{M}} $ | (8) |
式中:常数
设请求服务模型
| $ t_{i,m}^{{\text{tra}}} = \frac{{\displaystyle\sum\nolimits_{v \in {\cal{V}}} {y_i^v{s_v}} }}{{{r_{i,m}}}},i \in {\cal{I}},m \in {\cal{M}} $ | (9) |
计算任务的计算延迟与被分配到的计算资源大小有关,计算任务在执行前需要服务车辆启动对应的虚拟机。设服务车辆
| $ t_{i,m}^{{\text{exe}}} = \frac{{\displaystyle\sum\nolimits_{v \in {\cal{V}}} {y_i^v{d_v}} }}{{{f_{i,m}}}} + {t^{{\text{VM}}}},i \in {\cal{I}},m \in {\cal{M}} $ | (10) |
计算任务需要消耗车辆的计算资源,然而车辆提供的计算资源是有限的,任务卸载时需要的计算资源总和不能超过已提供计算资源的上限,故有约束
| $ \sum\limits_{i \in {\cal{I}}} {z_m^i{f_{i,m}}} \leqslant C_m^{\max },m \in {\cal{M}} $ | (11) |
由于计算任务处理完毕后返回的数据包很小,故这部分延迟通常可以忽略[21]。因此,计算任务从请求车辆
| $ {t_{i,m}} = t_{i,m}^{{\text{tra}}} + t_{i,m}^{{\text{exe}}},i \in {\cal{I}},m \in {\cal{M}} $ | (12) |
每个计算任务都有可能完成时间和最大容忍时间,若计算任务的可能完成时间不超过最大容忍时间时可卸载到服务车辆进行处理,否则应卸载到RSU处理,因此计算任务的可能完成时间可作为任务卸载的依据之一。为了降低高峰时期RSU的负载,设请求车辆
| $ {A_v} = \{ i|y_i^v = 1,i \in {\cal{I}}\} ,v \in {\cal{V}} $ | (13) |
由于有限资源的限制,服务车辆不一定能同时满足所有请求车辆的任务请求。设
| $ {a_v} = \sum\limits_{i \in {\cal{I}}} {y_i^v{l_i}} ,v \in {\cal{V}} $ | (14) |
令服务
| $ {g_v} = \frac{{{a_v}}}{{{A_v}}},v \in {\cal{V}} $ | (15) |
对于每个请求车辆来说,自私性会导致其希望自己的任务能被优先处理,不同计算任务请求的服务模型需要的资源大小也不同,需要较多计算资源和存储资源的DNN模型称为大服务模型,例如VGG13,相反称之为小服务模型,例如AlexNet。因此在宏观的最大化系统吞吐量的优化方案中,请求车辆的自私性和服务的异构性会使得请求小服务模型的车辆比请求大服务模型的车辆有更高的任务完成率。为了降低自私性等带来的影响,提高优化方案的公平性,故求解目标为最大化最小任务的完成率。问题的形式化定义为
| $ \begin{split} &({\cal{P}}) {\text{ }}\max {\text{ }}\min {g_v}\\ &\mathrm{s.t.}{\text{ }}(4) ,(5) ,(6) ,(11) , \\ &x_m^v,z_m^i \in \{ 0,1\} ,i \in {\cal{I}},m \in {\cal{M}},v \in {\cal{V}} \end{split} $ |
式中:约束式(4)确保任务能被顺利卸载到一个处理对象,约束式(5)确保处理计算任务的服务车辆缓存了相应服务,约束式(6)为服务车辆的存储资源约束,约束式(11)为服务车辆的计算资源约束。
2 激励机制在VFC网络场景中,理想状况下RSU可以将计算任务卸载到临近的车辆来扩充其有限的计算和存储资源,然而,在实际情况中这种假设过于乐观。由于车辆是私人拥有的,处理这些卸载请求需要花费额外的开销,故具有天然自私性的服务车辆往往不愿意充当计算节点,除非有对应的补偿。除此之外,自私性使得车辆不愿意公开一些私有信息,例如其对资源出让的偏好以及出让资源大小等。这使得RSU和车辆之间是信息不对称的,RSU无法准确知道当前接入的每个车辆出让资源的大小。为了解决上述问题,需要设计一个高效的激励机制。大多数方法如拍卖理论[22]和斯塔克尔伯格博弈[23]是基于迭代机制的且需要多次交换信息,这在提供延迟敏感服务的VFC网络中会导致额外的高信令开销。为了降低开销并解决上述问题,故选择合同论作为高效的激励机制。
2.1 合同描述对于服务车辆集合
| $ {\theta _k} = {C^{\min }} + \frac{{k - 1}}{K}({C^{\max }} - {C^{\min }}) ,k \in {\cal{K}} $ | (16) |
由于
| $ {\theta _1} < \cdots < {\theta _k} < \cdots < {\theta _K},k \in {\cal{K}} $ | (17) |
对于服务车辆
| $ {\theta _k} \leqslant C_m^{\max } < {\theta _{k + 1}} $ | (18) |
如图2所示为激励机制,根据RSU所需要的资源类型和大小的不同,设计了
|
图 2 基于合同的激励机制 Figure 2 Contract-based incentive mechanism |
对于服务车辆
| $ U_k^m = {\theta _k}{\varPhi _k} - {\varphi _k},k \in {\cal{K}} $ | (19) |
为鼓励车辆多多出让它们的资源,可令出让资源更高的车辆拥有更高的回报。因此,将具有单调递增属性的
对于RSU,其负责调度来自请求车辆的任务并将其计算任务卸载到出让资源的车辆,以减轻RSU自身负担。由于车辆出让计算资源相当于增大了VFC网络可用计算资源大小,故RSU的效用可以通过减少任务处理延迟进行提升。这里使用线性函数[24]以表征RSU在VFC网络接入一个出让资源大小为
| $ \begin{split} U_k^{{\text{RSU}}} =& {\lambda _k}(u \cdot \Delta t - {\varPhi _k}) =\\ &{\lambda _k} [u\bigg({t_{i,0}} - \frac{{{d_n}}}{{\dfrac{{{d_n}}}{{{t_{i,0}}}} + {\varphi _k}}}\bigg) - {\varPhi _k}],k \in {\cal{K}} \end{split} $ | (20) |
式中:
对于
| $ {U^{{\text{RSU}}}} = \sum\limits_{m = 1}^M {\sum\limits_{k = 1}^K {U_k^{{\text{RSU}}}} } $ | (21) |
考虑到车辆的自私性和为降低RSU自身负担,进行RSU的设计和优化。基于此,求解目标是已知各个资源类型权重
| $ ({\cal{Q}})\;\; \max {U^{{\text{RSU}}}} $ |
| $ {\mathrm{s.t.}}\;\; {\theta _k} \leqslant {\varphi _k},k \in {\cal{K}} $ | (22) |
| $ 0 \leqslant {\varphi _1} < \cdots < {\varphi _k} < \cdots < {\varphi _K},k \in {\cal{K}} $ | (23) |
| $ {\theta _k}{\varPhi _k} - {\varphi _k} \geqslant 0,k \in {\cal{K}} $ | (24) |
| $ {\theta _k}{\varPhi _k} - {\varphi _k} \geqslant {\theta _{k'}}{\varPhi _{k'}} - {\varphi _{k'}},k,k' \in {\cal{K}},k \ne k' $ | (25) |
式(22)为出让资源大小的下限约束,式(23)为出让资源大小单调性约束,式(24)为个体理性(Individual Rationality, IR)约束,式(25)为激励相容性(Incentive Compatibility, IC)约束。下限约束和单调性约束确保资源较多的车辆会出让更多的计算资源。IR约束确保服务车辆始终会选择对自己有益的合同项目。IC约束确保服务车辆始终会选择对自己效用最大的合同项目。
2.5 合同优化根据文献[17],可得到引理1和引理2。
引理1 对于集合
引理2 若合同
基于引理1和引理2,可得出引理3。
引理3 优化后的合同问题满足以下条件
| $ {\theta _1}{\varPhi _1} - {\varphi _1} = 0 $ | (26) |
| $ {\varphi _k} = {\varphi _{k - 1}} + {\theta _k}({\varPhi _k} - {\varPhi _{k - 1}}) ,2 \leqslant k \leqslant K $ | (27) |
证明 假设
| $ U_k^m = {\theta _k}{\varPhi _k} - {\varphi _k} \geqslant {\theta _k}{\varPhi _{k'}} - {\varphi _{k'}} $ | (28) |
由于
| $ {\theta _k}{\varPhi _{k'}} - {\varphi _{k'}} \geqslant {\theta _{k'}}{\varPhi _{k'}} - {\varphi _{k'}} = U_{k'}^m $ | (29) |
根据不等式的传递性,将上述不等式结合,有
| $ U_k^m > U_{k'}^m $ | (30) |
以此类推,对于
| $ U_1^m < \cdots < U_k^m < \cdots < U_K^m $ | (31) |
至此,可以将
| $ U_1^m = {\theta _1}{\varPhi _1} - {\varphi _1} \geqslant 0 $ | (32) |
由于RSU可以通过降低
| $ U_1^m = {\theta _1}{\varPhi _1} - {\varphi _1} = 0 $ | (33) |
此外根据引理2,有
| $ {\theta _k}{\varPhi _k} - {\varphi _k} \geqslant {\theta _k}{\varPhi _{k - 1}} - {\varphi _{k - 1}} $ | (34) |
与上面相似,RSU可以通过降低或提高直到不等式变成等式来获得最大效用,并同时满足合同可行性,故有
| $ {\theta _k}{\varPhi _k} - {\varphi _k} = {\theta _k}{\varPhi _{k - 1}} - {\varphi _{k - 1}} $ | (35) |
引理3证毕。
2.6 合同求解通过上一小节中的合同优化,除去初始化约束式(22) 与式(23),问题
| $ \begin{split} &({\cal{Q}}1) \;\; \max {U^{{\text{RSU}}}}\\ &\mathrm{s.t.}\;\;(22) ,(23) ,(26) ,(27) \end{split} $ |
式中:式(26) 为IR约束,式(27) 为IC约束。
转换后的问题
| $ \begin{split} &L({\varphi _k},{\varPhi _k},{\alpha _k},{\beta _k},{\gamma _k}) = {U^{{\text{RSU}}}} + {\alpha _1}({\theta _1}{\varPhi _1} - {\varphi _1}) +\\ &\quad\sum\limits_{k = 2}^K {{\alpha _k}} ({\theta _k}({\varPhi _k} - {\varPhi _{k - 1}}) + {\varphi _{k - 1}} - {\varphi _k}) +{\beta _1}{\varphi _1} +\\ &\quad \sum\limits_{k = 2}^K {{\beta _k}({\varphi _k} - {\varphi _{k - 1}}) } +\sum\limits_{k = 1}^K {{\gamma _k}({\varphi _k} - {\theta _k}) } \end{split} $ | (36) |
式中:
至此,可以列出所有的KKT条件,故有下列:
(1) 初始约束条件(22) 和(23)。
(2) 对偶约束条件
(3) 互补松弛条件
(4) 拉格朗日一阶偏导数条件
| $ \frac{{\partial L}}{{\partial ({\varphi _k}) }} = \frac{{\partial ({U^{RSU}}) }}{{\partial ({\varphi _k}) }} - {\alpha _k} + {\alpha _{k + 1}} + {\beta _k} - {\beta _{k + 1}} + {\gamma _k} = 0,k \ne K $ |
| $ \frac{{\partial L}}{{\partial ({\varphi _K}) }} = \frac{{\partial ({U^{RSU}}) }}{{\partial ({\varphi _K}) }} - {\alpha _K} + {\beta _K} + {\gamma _K} = 0 $ |
| $ \frac{{\partial L}}{{\partial ({\varPhi _k}) }} = \frac{{\partial ({U^{RSU}}) }}{{\partial ({\varPhi _k}) }} + {\alpha _k}{\theta _k} - {\alpha _{k + 1}}{\theta _{k + 1}} = 0,k \ne K $ |
| $ \frac{{\partial L}}{{\partial ({\varPhi _K}) }} = \frac{{\partial ({U^{RSU}}) }}{{\partial ({\varPhi _K}) }} + {\alpha _K}{\theta _K} = 0 $ |
通过列出KKT条件,将权重大小
算法1第1行根据式(16) 和(18) 将服务车辆按计算资源大小进行分类,第2行根据上面提出的KKT条件求解问题
算法1 基于KKT的RSU合同生成算法(KKT-based RSU Contract Generation Algorithm, KCGA)
输入:请求车辆
输出:合同
1. 基于式 (16) 和(18) 对车辆类型分类
2. 求解问题
3. for
4. 车辆
5. end for
6. return
由于问题
引入一个连续变量
| $ f_{i,m}^{\min } = \frac{{\displaystyle\sum\nolimits_{v \in {\cal{V}}} {y_i^v{d_v}} }}{{{t_{i,0}} - t_{i,m}^{tra}}},i \in {\cal{I}},m \in {\cal{M}} $ | (37) |
引入连续变量后,
| $ \sum\limits_{m \in {\cal{M}}} {z_m^i} \leqslant 1,i \in {\cal{I}} $ | (38) |
| $ \sum_{i \in {\cal{I}}} z_{m}^{i} f_{i, m}^{\min } \leq \varphi_{k}, m \in {\cal{M}}, k \in K $ | (39) |
约束式(38)确保计算任务至多被卸载至一个服务车辆,式(39)表示计算资源约束。
此时变量
| $ l_{i}=\sum_{m \in \cal{M}} z_{m}^{i}, i \in \cal{I} $ | (40) |
为解决求解目标的非连续性,引入连续变量
| $ \lambda \leqslant {g_v},v \in {\cal{V}} $ | (41) |
综上所述,在引入两个连续变量后,可得到混合整数线性规划(ILP) 问题
| $ \begin{split} &({\cal{P}}1)\;\; \max \lambda \\ &\mathrm{s.t.}\;\;(5) ,(6) ,(38) ,(39) ,(41) , \\ &x_m^v,z_m^i \in \{ 0,1\} ,i \in {\cal{I}},m \in {\cal{M}},v \in {\cal{V}} \end{split} $ |
通过松弛问题
| $ \begin{split} &({\cal{P}}2) \;\;\max \lambda \\ &\mathrm{s.t.}\;\;(5) ,(6) ,(38) ,(39) ,(41) , \\ &x_m^v,z_m^i \in [0,1],i \in {\cal{I}},m \in {\cal{M}},v \in {\cal{V}} \end{split} $ |
对于线性规划问题
第1行执行算法1,进行一个RSU合同的生成与求解过程,并完成RSU与服务车辆之间的合同匹配。第2行利用求解器求解线性规划问题得到
算法2 基于合同的舍入算法(Contract-based Rounding Algorithm, CRA)
输入:请求车辆
输出:服务缓存策略
1.
2. 求解问题
3. for
4. for
5. 以概率
6. 以概率
7. end for
8. end for
9. return
定理1 算法2的时间复杂度为
证明 第1行执行算法1的时间复杂度为
引理4 随机舍入策略能以
证明 设
| $ T = \sum\limits_{i \in {\cal{I}}} {\sum\limits_{m \in {\cal{M}}} {z_m^i} } $ | (42) |
| $ \mu = {\text{E}}[T] = \sum\limits_{i \in {\cal{I}}} {\sum\limits_{m \in {\cal{M}}} {\Pr {\text{(}}z_m^i = 1) } } = \sum\limits_{i \in {\cal{I}}} {\sum\limits_{m \in {\cal{M}}} {\bar z_m^i} } $ | (43) |
由于
| $ \Pr (T \leqslant (1 - \varepsilon ) \cdot \mu ) \leqslant {{\text{e}}^{\tfrac{{ - {\varepsilon ^2}\mu }}{2}}} $ | (44) |
设
| $ {g_{\min }} \leqslant \frac{{\displaystyle\sum\nolimits_{i \in {\cal{I}}} {\displaystyle\sum\nolimits_{m \in {\cal{M}}} {y_i^vz_m^i} } }}{{{A_v}}} $ | (45) |
| $ \sum\limits_{v \in {\cal{V}}} {\sum\limits_{i \in {\cal{I}}} {\sum\limits_{m \in {\cal{M}}} {y_i^vz_m^i} } } \geqslant \sum\limits_{v \in {\cal{V}}} {{A_v}{g_{\min }}} = I{g_{\min }} $ | (46) |
设
| $ \frac{{I{g_{\min }}}}{V} \geqslant 1 \geqslant {g_{\max }} $ | (47) |
将上述式(42)~(47) 结合得
| $ I{g_{\min }} \leqslant T \leqslant I{g_{\max }} \leqslant \frac{{{I^2}{g_{\min }}}}{V} $ | (48) |
设
| $ Ig* \leqslant \sum\limits_{i \in {\cal{I}}} {\sum\limits_{m \in {\cal{M}}} {\bar z_m^i} } \leqslant \frac{{{I^2}g*}}{V} $ | (49) |
| $ Ig* \leqslant \mu \leqslant \frac{{{I^2}g*}}{V} $ | (50) |
结合上述所有不等式,有
| $ \Pr \bigg(\frac{{{I^2}{g_{\min }}}}{V} \leqslant (1 - \varepsilon ) Ig*\bigg) \leqslant {{\text{e}}^{\tfrac{{ - {\varepsilon ^2}\mu }}{2}}} $ | (51) |
由于
| $ \Pr \bigg(\frac{{I{g_{\min }}}}{V} \leqslant (1 - \varepsilon ) {g^ + }\bigg) \leqslant {{\text{e}}^{\tfrac{{ - {\varepsilon ^2}\mu }}{2}}} $ | (52) |
令上述不等式右边的值为
| $ \varepsilon = \sqrt {\frac{{2\ln M}}{\mu }} $ | (53) |
实际中
| $ \varepsilon = \sqrt {\frac{{2\ln M}}{I}} $ | (54) |
根据近似比的定义,此时有
| $ \frac{{{g^ + }}}{{{g_{\min }}}} \geqslant \frac{I}{{V(1 - \varepsilon ) }} = \frac{{I\sqrt I }}{{V(\sqrt I - \sqrt {2\ln M} ) }} $ | (55) |
算法2在求解线性规划过程中需要消耗太多的时间,故针对算法2中随机舍入策略复杂度较高的不足设计了一个基于贪心策略的高效算法。基本思想是优先缓存任务完成率最小的服务,并优先卸载服务对应的计算任务,直到最小的任务完成率无法提升为止。算法的形式化过程如算法3所示。
与之前的算法类似,第1行执行算法1,进行一个RSU合同的生成与求解过程,并完成RSU与服务车辆之间的合同匹配。第2行计算从每个请求车辆到所有服务车辆的传输延迟,并按升序排列生成有序序列
算法3 基于合同的贪心算法(Contract-based Greedy Algorithm, CGA)
输入:请求车辆
输出:服务缓存策略
1.
2. 计算
3. 令
4. while
5. 遍历值
6. 令
7. for
8. for
9. while 满足式(5) 和(39) do
10. 令
11. 令
12. 更新
13. 令
14. end while
15. end for
16. end for
17. if
18. for
19. for
20. while 满足式(5) 、(6) 和(39) do
21. 令
22. 令
23. 更新
24. 令
25. end while
26. end for
27. end for
28. end if
29. end while
30. return
定理2 算法3的时间复杂度为
证明 第1行执行算法1的时间复杂度为
实验在搭载Intel(R) i7-10700F处理器的工作站上进行,设置随机部署的请求车辆和服务车辆之间的欧几里得距离为[0,100] m,且请求车辆的数量远大于服务车辆。请求车辆的传输带宽设为5 MHz,发送功率为25 dBm。请求车辆和服务车辆之间的环境噪音功率为−174 dBm。服务车辆出让的计算能力范围为[100,150] GFLOPs,内存大小为[800,
CSPR:SPR算法[9]联合考虑服务缓存和请求调度,最大化整个系统的吞吐量,在VFC场景中,该算法最大化请求车辆的服务数量。由于未考虑车辆自私性等因素,故对SPR算法进行改进得到CSPR算法。CSPR算法首先执行算法1计算最优合同并与服务车辆签订资源出让条约,然后求解线性规划问题得到最优的分数解为
CSPRG:基于贪心思想对CSPR算法进行改进得到CSPRG算法,其目标是最大化系统的吞吐量。CSPRG算法在执行完CSPR算法后,不断迭代将未被卸载的任务卸载到计算资源消耗最少的服务车辆中,直到所有剩余资源无法满足任意的任务。
4.2 实验结果图3展示了在不同合同种类下,出让资源的服务车辆类型属于不同分布概率时的RSU总效用对比。根据不同数量的合同种类将区间[100,150] GFLOPs划分为对应数量的子区间,为不失一般性,对出让资源的服务车辆类型属于哪种子区间的概率分布考虑均匀分布[28]、高斯分布[29]和齐夫分布[30]3种情况。均匀分布意味着每个出让资源的服务车辆属于每种类型的概率相同,高斯分布意味着每个出让资源的服务车辆属于中间类型的概率更大,齐夫分布意味着每个出让资源的服务车辆属于低出让计算能力类型的概率更大。从图3中可以看出,不论满足哪种概率分布类型,RSU的效用都会随着合同种类的上升而上升,不同于齐夫分布的缓慢上升,均匀分布和高斯分布在合同种类大于3后迅速上升。实验结果说明RSU总效用会随着概率分布类型的不同而变化。
|
图 3 不同合同种类下各概率分布的RSU总效用 Figure 3 The total RSU utility of probability distributions under different types of contracts |
图4展示了当发送计算任务的请求车辆数量为40、最大容忍延迟为0.5 s时,不同服务车辆数量下算法关于最小任务完成率的性能对比。从图4中可以看出,提出的CRA算法和CGA算法性能优于经过改进的基准算法CSPR和CSPRG。去掉基准算法最小完成率几乎等于零的情况,CRA算法相比于CSPR算法和CSPRG算法平均分别有66.63%和50.27%的性能提升,而CGA算法相比于CSPR算法和CSPRG算法更有平均272.58%和233.41%的性能提升。当愿意出让资源的服务车辆数量偏少时,CSPR算法和CSPRG算法获得的最小服务完成率几乎为0,这是因为在系统资源非常有限时,最大化系统吞吐量的目标会导致大服务的请求几乎无法得到服务。随着出让资源的服务车辆数目的增多,最小服务完成率逐渐增大,这是因为网络的计算资源越来越充足,可为更多的请求车辆提供服务。即使系统资源非常有限,提出的CRA和CGA算法也能保证各个服务都有一定的完成率。
|
图 4 不同服务车辆数量下各算法的最小任务完成率 Figure 4 The minimum task completion rate of each algorithm with different service vehicle numbers |
图5展示了当出让资源的服务车辆数量为7、最大容忍延迟为0.5 s时,不同请求车辆数量下算法关于最小任务完成率的性能对比。从图5中可以看出,提出的CRA算法和CGA算法性能优于经过改进的基准算法CSPR和CSPRG。去掉基准算法最小完成率几乎等于0的情况,CRA算法相比于CSPR算法和CSPRG算法平均分别有56.92%和43.12%的性能提升,而CGA算法相比于CSPR算法和CSPRG算法更有平均190.57 %和163.83 %的性能提升。当发送计算任务的请求车辆数量偏多时,CSPR算法和CSPRG算法获得的最小服务完成率几乎为0,这是由于在系统资源有限时,请求小服务的请求车辆逐渐增多,故最大化系统吞吐量的目标导致大服务的请求几乎无法得到服务。因此,在系统资源有限时即使请求小服务的任务增多,提出的CRA和CGA算法也能保证各个服务都有一定的完成率。
|
图 5 不同请求车辆数量下各算法的最小任务完成率 Figure 5 The minimum task completion rate of each algorithm with different numbers of service requested vehicles |
图6和图7分别展示了当发送计算任务的请求车辆数量为40,出让资源的服务车辆数量为7时,不同最大容忍延迟下算法关于最小任务完成率和系统平均吞吐量的性能对比。从图6中可以看出,提出的CRA算法和CGA算法性能优于经过改进的基准算法CSPR和CSPRG。去掉基准算法最小完成率几乎等于零的情况,CRA算法相比于CSPR算法和CSPRG算法平均分别有73.16%和48.72%的性能提升,而CGA算法相比于CSPR算法和CSPRG算法更有平均185.27%和145.53%的性能提升。当最大容忍延迟较小时,CSPR算法和CSPRG算法获得的最小服务完成率几乎为0,这是由于在系统资源有限时,请求任务为了满足更低的处理时延需要更多的计算资源,故最大化系统吞吐量的目标导致大服务的请求几乎无法得到服务。因此在系统资源有限时即使最大容忍延迟较小,提出的CRA和CGA算法也能保证各个服务都有一定的完成率。从图7中可以看出,提出的CGA算法相比于CSPR算法和CSPRG算法系统平均系统吞吐量降低了24.81%和33.69%,CRA算法只降低了3.39%和14.96%。对比图6和图7,和现有的基准算法对比,可以发现CGA算法能在损失一部分吞吐量下极大提升最小服务完成率,CRA算法能在几乎不损失吞吐量下也能保证所有服务都有一定的最小服务完成率,并且当系统资源越来越充足时,吞吐量的损失会越来越低。
|
图 6 不同最大容忍延迟下各算法的最小任务完成率 Figure 6 The minimum task completion rate of each algorithm with different maximum tolerant delays |
|
图 7 不同最大容忍延迟下各算法的系统平均吞吐量 Figure 7 The system average throughput of each algorithm with different maximum tolerant delays |
图8 展示了当发送计算任务的请求车辆数量为40,出让资源的服务车辆数量为7,最大容忍延迟为0.5 s时,不同无线带宽大小下算法关于最小任务完成率的性能对比。从图8中可以看出,提出的CRA算法和CGA算法性能优于经过改进的基准算法CSPR和CSPRG。当无线带宽资源较少时,此时的任务传输延迟大小成为影响卸载决策的因素之一,故所有算法的最小任务完成率都较低,随着系统资源越来越充足,传输延迟大小对于卸载决策的影响逐渐降低,故所有算法的最小任务完成率逐渐趋近平稳。
|
图 8 不同无线带宽大小下各算法的最小任务完成率 Figure 8 The minimum task completion rate of each algorithm with different wireless bandwidths |
在车辆雾计算网络中,考虑服务车辆的自私性现象,设计了合同论模型,同时给出了KKT条件求解过程和合同生成算法。在应对服务请求车辆公平性保障的过程中,在满足存储资源、计算资源和延迟约束等条件下,联合考虑了服务缓存与任务卸载下的最大化最小任务完成率。为解决上述问题,首先提出了一个基于合同的随机舍入算法,并证明了算法的近似比,与此同时,为解决随机舍入策略计算复杂度较高的缺陷,还提出了一个基于合同的贪心算法。大量的实验结果表明,与现有的算法相比,提出的算法在激励机制方面和保障异构服务公平性方面有了较大的提升。未来将引入深度强化学习算法,实现算法的自适应部署。
| [1] |
SHAO J, MAO Y, ZHANG J. Task-oriented communication for multidevice cooperative edge inference[J].
IEEE Transactions on Wireless Communications, 2022, 22(1): 73-87.
|
| [2] |
庞源, 武继刚, 陈龙, 等. 边缘计算中多设备多任务的能耗均衡优化算法[J].
计算机科学与探索, 2022, 16(2): 480-488.
PANG Y, WU J G, CHEN L, et al. Energy balancing for multiple devices with multiple tasks in mobile edge computing[J]. Journal of Frontiers of Computer Science and Technology, 2022, 16(2): 480-488. DOI: 10.3778/j.issn.1673-9418.2009072. |
| [3] |
MAO Y, YOU C, ZHANG J, et al. A survey on mobile edge computing: the communication perspective[J].
IEEE Communications Surveys & Tutorials, 2017, 19(4): 2322-2358.
|
| [4] |
XIA X, CHEN F, HE Q, et al. Data, user and power allocations for caching in multi-access edge computing[J].
IEEE Transactions on Parallel and Distributed Systems, 2021, 33(5): 1144-1155.
|
| [5] |
FU F, KANG Y, ZHANG Z, et al. Soft actor-critic DRL for live transcoding and streaming in vehicular fog-computing-enabled IoV[J].
IEEE Internet of Things Journal, 2020, 8(3): 1308-1321.
|
| [6] |
HE X, WANG S, WANG X, et al. Age-based scheduling for monitoring and control applications in mobile edge computing systems [C]//IEEE International Conference on Computer Communications. London: IEEE, 2022: 1009-1018.
|
| [7] |
吴亚兰. 车联网中的任务迁移算法研究 [D]. 广州: 广东工业大学, 2021.
|
| [8] |
LYU P, XU W, NIE J, et al. Edge Computing task offloading for environmental perception of autonomous vehicles in 6G networks[J].
IEEE Transactions on Network Science and Engineering, 2022, 10(3): 1228-1245.
|
| [9] |
YAO M, CHEN L, WU Y, et al. Loading cost-aware model caching and request routing in edge-enabled wireless sensor networks[J].
The Computer Journal, 2023, 66(10): 2409-2425.
DOI: 10.1093/comjnl/bxac088. |
| [10] |
LI J, LIANG W, LI Y, et al. Throughput maximization of delay-aware DNN inference in edge computing by exploring DNN model partitioning and inference parallelism[J].
IEEE Transactions on Mobile Computing, 2021, 22(5): 3017-3030.
|
| [11] |
BAI Z, LIN Y, CAO Y, et al. Delay-aware cooperative task offloading for multi-UAV enabled edge-cloud computing[J].
IEEE Transactions on Mobile Computing, 2022, 23(2): 1034-1049.
|
| [12] |
ZHAO J, SUN X, LI Q, et al. Edge caching and computation management for real-time internet of vehicles: an online and distributed approach[J].
IEEE Transactions on Intelligent Transportation Systems, 2020, 22(4): 2183-2197.
|
| [13] |
XUE Z, LIU C, LIAO C, et al. Joint service caching and computation offloading scheme based on deep reinforcement learning in vehicular edge computing systems[J].
IEEE Transactions on Vehicular Technology, 2023, 72(5): 6709-6722.
DOI: 10.1109/TVT.2023.3234336. |
| [14] |
CHEN L, YAO M, WU Y, et al. EECDN: energy-efficient cooperative DNN edge inference in wireless sensor networks[J].
ACM Transactions on Internet Technology, 2022, 22(4): 1-30.
|
| [15] |
FAN W, HAN J, SU Y, et al. Joint task offloading and service caching for multi-access edge computing in WiFi-cellular heterogeneous networks[J].
IEEE Transactions on Wireless Communications, 2022, 21(11): 9653-9667.
DOI: 10.1109/TWC.2022.3178541. |
| [16] |
SHEN Q, HU B J, XIA E. Dependency-aware task offloading and service caching in vehicular edge computing[J].
IEEE Transactions on Vehicular Technology, 2022, 71(12): 13182-13197.
DOI: 10.1109/TVT.2022.3196544. |
| [17] |
ZHOU Z, LIU P, FENG J, et al. Computation resource allocation and task assignment optimization in vehicular fog computing: a contract-matching approach[J].
IEEE Transactions on Vehicular Technology, 2019, 68(4): 3113-3125.
DOI: 10.1109/TVT.2019.2894851. |
| [18] |
ZHOU J, ZHANG X. Fairness-aware task offloading and resource allocation in cooperative mobile-edge computing[J].
IEEE Internet of Things Journal, 2021, 9(5): 3812-3824.
|
| [19] |
CHEN L, WU J, ZHANG J, et al. Dependency-aware computation offloading for mobile edge computing with edge-cloud cooperation[J].
IEEE Transactions on Cloud Computing, 2020, 10(4): 2451-2468.
|
| [20] |
王丰, 李宇龙, 林志飞, 等. 基于计算吞吐量最大化的能量采集边缘计算系统在线资源优化配置 [J]. 广东工业大学学报, 2022, 39(4): 17-23.
WANG F, LI Y L, LIN Z F, et al. Online resource allocation design for computation capacity maximization in energy harvesting mobile edge computing systems [J]. Journal of Guangdong University of Technology, 2022, 39(4): 17-23. |
| [21] |
吴嘉鑫, 孙一飞, 吴亚兰, 等. 面向安全传输的低能耗无人机轨迹优化算法[J].
计算机工程, 2024, 50(2): 59-67.
WU J X, SUN Y F, WU Y L, et al. Low energy consumption UAV trajectory optimization algorithm for secure transmission[J]. Computer Engineering, 2024, 50(2): 59-67. |
| [22] |
LI F, YAO H, DU J, et al. Auction design for edge computation offloading in SDN-based ultra dense networks[J].
IEEE Transactions on Mobile Computing, 2020, 21(5): 1580-1595.
|
| [23] |
LEE J, KIM D, NIYATO D. Market analysis of distributed learning resource management for Internet of things: a game-theoretic approach[J].
IEEE Internet of Things Journal, 2020, 7(9): 8430-8439.
DOI: 10.1109/JIOT.2020.2991725. |
| [24] |
NGUYEN D, LB L, BHARGAVA V. Price-based resource allocation for edge computing: a market equilibrium approach[J].
IEEE Transactions on Cloud Computing, 2018, 9(1): 302-317.
|
| [25] |
KIANI A, ANSARI N. Toward hierarchical mobile edge computing: an auction-based profit maximization approach[J].
IEEE Internet of Things Journal, 2017, 4(6): 2082-2091.
DOI: 10.1109/JIOT.2017.2750030. |
| [26] |
YANG S, LI F, TRAJANOVSKI S, et al. Delay-aware virtual network function placement and routing in edge clouds[J].
IEEE Transactions on Mobile Computing, 2019, 20(2): 445-459.
|
| [27] |
XU H, YU Z, QIAN C, et al. Minimizing flow statistics collection cost of SDN using wildcard requests [C]//IEEE International Conference on Computer Communications. Atlanta: IEEE, 2017: 1-9.
|
| [28] |
GUO S, DAI Y, QIU X, et al. Blockchain meets edge computing: stackelberg game and double auction based task offloading for mobile blockchain[J].
IEEE Transactions on Vehicular Technology, 2020, 69(5): 5549-5561.
DOI: 10.1109/TVT.2020.2982000. |
| [29] |
KO H, KIM J, RYOO D, et al. A belief-based task offloading algorithm in vehicular edge computing[J].
IEEE Transactions on Intelligent Transportation Systems, 2023, 24(5): 5467-5476.
DOI: 10.1109/TITS.2023.3239942. |
| [30] |
ZHANG D, NI C, ZHANG J, et al. A novel edge computing architecture based on adaptive stratified sampling[J].
Computer Communications, 2022, 183: 121-135.
DOI: 10.1016/j.comcom.2021.11.012. |
2025, Vol. 42

