针对差分算法(differential evolution,DE)在解决高维优化问题时参数设置复杂、选择变异策略困难的现象,提出了广义逆向学习方法的自适应差分进化算法(self-adaptive DE algorithm via generalized opposition-based learning,SDE-GOBL...针对差分算法(differential evolution,DE)在解决高维优化问题时参数设置复杂、选择变异策略困难的现象,提出了广义逆向学习方法的自适应差分进化算法(self-adaptive DE algorithm via generalized opposition-based learning,SDE-GOBL)。利用广义的逆向学习方法(generalized opposition-based learning,GOBL)来进行多策略自适应差分算法(Self-adaptive DE,Sa DE)的初始化策略调整,求出各个候选解的相应逆向点,并在候选解和其逆向点中选择所需要的最优初始种群,然后再进行自适应变异、杂交、选择操作,最后通过CEC2005国际竞赛所提供的9个标准测试函数对SDE-GOBL算法进行验证,结果证明该算法具有较快的收敛速度和较高的求解精度。展开更多
铁路线路方案评价及比选多采用组合赋权法,其主观赋权过程计算冗杂。选取具备一定程度普适性的专家案例,采用最大熵逆向强化学习方法从专家案例中学习主观赋权“知识”,得到专家案例隐藏的“奖励”,从而获取可解释性的主观权重。将此主...铁路线路方案评价及比选多采用组合赋权法,其主观赋权过程计算冗杂。选取具备一定程度普适性的专家案例,采用最大熵逆向强化学习方法从专家案例中学习主观赋权“知识”,得到专家案例隐藏的“奖励”,从而获取可解释性的主观权重。将此主观权重与离差法所得客观权重组合并投入后续TOPSIS(Technique for Order Preference by Similarity to Ideal Solution)评价流程,对线路方案进行最终评价。结合具体实例,建立设计阶段绿色铁路的评价指标体系。结果表明:该方法可以有效计算铁路线路方案评价的量化指标,减小现有赋权方法的计算复杂度,取得较好的评价效果,与真实案例比选结果一致。通过讨论该方法的适用性、局限性及原因,确定该方法在初步评价和泛用性评价中的定位。展开更多
文摘铁路线路方案评价及比选多采用组合赋权法,其主观赋权过程计算冗杂。选取具备一定程度普适性的专家案例,采用最大熵逆向强化学习方法从专家案例中学习主观赋权“知识”,得到专家案例隐藏的“奖励”,从而获取可解释性的主观权重。将此主观权重与离差法所得客观权重组合并投入后续TOPSIS(Technique for Order Preference by Similarity to Ideal Solution)评价流程,对线路方案进行最终评价。结合具体实例,建立设计阶段绿色铁路的评价指标体系。结果表明:该方法可以有效计算铁路线路方案评价的量化指标,减小现有赋权方法的计算复杂度,取得较好的评价效果,与真实案例比选结果一致。通过讨论该方法的适用性、局限性及原因,确定该方法在初步评价和泛用性评价中的定位。