基于强化学习(Reinforcement Learning,RL),在保证用户服务质量(Quality of Service,QoS)的前提下,研究了人机物混合接入的异构网络中通信-计算资源联合分配算法。建立了一种新型人机物混合接入的异构网络拓扑结构。在最小服务质量需求...基于强化学习(Reinforcement Learning,RL),在保证用户服务质量(Quality of Service,QoS)的前提下,研究了人机物混合接入的异构网络中通信-计算资源联合分配算法。建立了一种新型人机物混合接入的异构网络拓扑结构。在最小服务质量需求、无人机(Unmanned Aerial Vehicle,UAV)传输功率等限制条件下,将信道分配、功率分配和计算资源联合分配问题建模为最小化系统时延和能耗的多目标优化问题。基于强化学习理论和多智能体马尔可夫决策过程,提出一种分布式Q学习通信-计算资源联合分配(Distributed Q-learning Communication and Computing joint Resources Allocation,DQ-CCRA)算法。该算法与现有算法相比,不仅能够降低人类型设备对物类型设备的干扰,还能有效减小系统时延和能耗,将系统总开销降低7.4%。展开更多
在5G异构网络(heterogeneous network,HetNet)中广泛部署小基站可以提高网络容量和用户速率,但密集部署也会产生严重干扰和更高能耗问题。为了最大化网络能量效率(energy efficiency,EE)并保证用户服务质量(quality of service,QoS),提...在5G异构网络(heterogeneous network,HetNet)中广泛部署小基站可以提高网络容量和用户速率,但密集部署也会产生严重干扰和更高能耗问题。为了最大化网络能量效率(energy efficiency,EE)并保证用户服务质量(quality of service,QoS),提出了一种在小蜂窝基站中嵌入能量收集器供电的资源分配方案。首先,针对网络系统的下行链路,将频谱和小基站发射功率分配问题建模为联合优化系统能效和用户满意度的多目标优化问题。其次,提出了基于深度强化学习的多目标演员-评论家(multi-objective actor-critic,MAC)资源分配算法求解所建立的优化模型。最后,仿真结果表明,相比于其他传统学习算法,能量效率提高了11.96%~12.37%,用户满意度提高了11.45%~27.37%。展开更多
文摘基于强化学习(Reinforcement Learning,RL),在保证用户服务质量(Quality of Service,QoS)的前提下,研究了人机物混合接入的异构网络中通信-计算资源联合分配算法。建立了一种新型人机物混合接入的异构网络拓扑结构。在最小服务质量需求、无人机(Unmanned Aerial Vehicle,UAV)传输功率等限制条件下,将信道分配、功率分配和计算资源联合分配问题建模为最小化系统时延和能耗的多目标优化问题。基于强化学习理论和多智能体马尔可夫决策过程,提出一种分布式Q学习通信-计算资源联合分配(Distributed Q-learning Communication and Computing joint Resources Allocation,DQ-CCRA)算法。该算法与现有算法相比,不仅能够降低人类型设备对物类型设备的干扰,还能有效减小系统时延和能耗,将系统总开销降低7.4%。