期刊文献+

基于深度强化学习的雾计算容器整合

Container Consolidation Based on Deep Reinforcement Learning in Fog Computing Environment
下载PDF
导出
摘要 在雾计算系统架构基础上,针对数据中心高能耗、应用任务负载的随机动态性以及用户对应用的低时延要求,提出一种基于A2C(advantage actor-critic)算法的以最小化能源消耗和平均响应时间为目标的容器整合方法,利用检查点/恢复技术实时迁移容器,实现资源整合.构建从数据中心系统状态到容器整合的端到端决策模型,提出自适应多目标奖励函数,利用基于梯度的反向传播算法加快决策模型的收敛速度.基于真实任务负载数据集的仿真实验结果表明,该方法能够在保证服务质量的同时有效降低能耗. In view of the high energy consumption of data centers,the random dynamics of application task load,and the low latency requirements of users for applications,on the basis of the fog computing system architecture,a container integration method based on advantage actor-critic(A2C)algorithm is proposed to minimize energy consumption and average response time.The method uses checkpoint/recovery technology to migrate containers in real time to achieve resource integration.An end-to-end decision model from data center system state to container integration is constructed,and an adaptive multi-objective reward function is proposed.The gradient-based backpropagation algorithm is used to accelerate the convergence speed of the decision model.Simulation results based on real task load datasets show that the proposed method can effectively reduce energy consumption while ensuring service quality.
作者 党伟超 王珏 DANG Wei-Chao;WANG Jue(Economics and Management Academy,Taiyuan University of Science and Technology,Taiyuan 030024,China)
出处 《计算机系统应用》 2023年第8期303-311,共9页 Computer Systems & Applications
基金 太原科技大学博士科研启动基金(20202063) 太原科技大学研究生教育创新项目(SY2022063)。
关键词 雾计算 资源调度 深度强化学习 容器技术 建模与仿真 fog computing resource scheduling deep reinforcement learning container technology modeling and simulation
  • 相关文献

参考文献9

二级参考文献24

共引文献72

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部