期刊文献+
共找到84篇文章
< 1 2 5 >
每页显示 20 50 100
Hermite前向神经网络隐节点数目自动确定 被引量:10
1
作者 张雨浓 肖秀春 +1 位作者 陈扬文 邹阿金 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2010年第2期271-275,共5页
从函数逼近论出发,构造了一类以Hermite正交基为激励函数的前向神经网络.在保证网络逼近能力的前提下,令其输入层至隐层的权值和各神经元阈值分别为1和0,导出了基于伪逆的隐层至输出层最优权值的直接计算公式.并针对Hermite前向神经网络... 从函数逼近论出发,构造了一类以Hermite正交基为激励函数的前向神经网络.在保证网络逼近能力的前提下,令其输入层至隐层的权值和各神经元阈值分别为1和0,导出了基于伪逆的隐层至输出层最优权值的直接计算公式.并针对Hermite前向神经网络,提出一种依照学习精度要求而逐次递增型的隐节点数自动、快速、准确的确定算法.对多个目标函数的计算机仿真和预测结果表明,该神经网络权值直接确定方法和隐节点数自动确定算法能很快地找到最优的隐节点数及其对应的最优权值,且网络具有较好的预测能力. 展开更多
关键词 Hermite神经网络 隐节点 权值直接确定 伪逆
下载PDF
权值可直接算出的Legendre神经网络之隐节点数自动确定 被引量:3
2
作者 张雨浓 刘巍 +1 位作者 蔡炳煌 肖秀春 《小型微型计算机系统》 CSCD 北大核心 2009年第7期1298-1301,共4页
隐神经元数目的确定在神经网络学习过程中有着重要的意义.然而,目前,还没有相应的确定性理论指导隐神经元数的设计.针对Legendre前向神经网络,在基于伪逆的权值直接确定法的基础上构造出一种神经网络隐节点数自动确定的算法.仿真结果显... 隐神经元数目的确定在神经网络学习过程中有着重要的意义.然而,目前,还没有相应的确定性理论指导隐神经元数的设计.针对Legendre前向神经网络,在基于伪逆的权值直接确定法的基础上构造出一种神经网络隐节点数自动确定的算法.仿真结果显示该隐节点数自动确定算法能较快地找到最简化结构Legendre前向神经网络的隐节点数. 展开更多
关键词 Legendre前向神经网络 隐节点数自动确定 权值直接确定 伪逆
下载PDF
自适应调节的隐节点神经网络结构优化算法 被引量:3
3
作者 李伟林 廖恩红 《计算机工程与设计》 北大核心 2017年第6期1664-1667,1685,共5页
为解决现有神经网络算法易陷入局部最优化的问题,根据隐节点对整个网络的贡献值大小,提出一种自适应的动态隐节点调节策略。根据网络的节点容量与输出精度,建立一个资源分配机制,结合隐节点的删除与分裂策略,实现在网络学习过程中对隐... 为解决现有神经网络算法易陷入局部最优化的问题,根据隐节点对整个网络的贡献值大小,提出一种自适应的动态隐节点调节策略。根据网络的节点容量与输出精度,建立一个资源分配机制,结合隐节点的删除与分裂策略,实现在网络学习过程中对隐节点自适应地增加或删除,形成一个节点利用率高且结构分布合理的神经网络系统。实验结果表明,在不同信号下,该算法能够将误差控制在一个较为合理的数值内,保持较快的收敛速度,有效解决局部最优化问题。 展开更多
关键词 神经网络 自适应 隐节点 结构优化 调节策略
下载PDF
前向多层神经网络的隐节点修剪算法 被引量:2
4
作者 冯伟 高大启 《电子学报》 EI CAS CSCD 北大核心 1997年第5期114-115,113,共3页
对硬件实现的神经网络而言,网络隐节点个数是一个十分重要的性能指标,它主要由神经网络的隐节点数和隐层数所决定,过分增加隐节点数和隐层数并不能明显地改善神经网络的性能,却使硬件结构的复杂性急剧增加,本文从国内外前向多层人... 对硬件实现的神经网络而言,网络隐节点个数是一个十分重要的性能指标,它主要由神经网络的隐节点数和隐层数所决定,过分增加隐节点数和隐层数并不能明显地改善神经网络的性能,却使硬件结构的复杂性急剧增加,本文从国内外前向多层人工神经网络大量应用实例中总结归纳了一个确定隐节点数的经验公式,提出了一种判断隐点数是否多余的新方法,使用实例证明了我们提出了的经验公式和判断方法。 展开更多
关键词 前向 多层神经网络 隐节点 修剪算法 经验公式
下载PDF
一种用于神经网络训练的隐节点校正算法(英文) 被引量:2
5
作者 卢进 《控制理论与应用》 EI CAS CSCD 北大核心 1998年第1期53-60,共8页
误差反传算法被广泛用于多层前馈神经网络的训练.但该算法的收敛性问题并没有解决,这导致训练后的网络泛化能力一般很差.本文研究了这一问题,并基于神经网络映射定理提出一种用于训练网络逼近单输出函数的隐节点校正(HNR)算法.... 误差反传算法被广泛用于多层前馈神经网络的训练.但该算法的收敛性问题并没有解决,这导致训练后的网络泛化能力一般很差.本文研究了这一问题,并基于神经网络映射定理提出一种用于训练网络逼近单输出函数的隐节点校正(HNR)算法.这在神经辨识领域是有用的,因为大多数工业对象都是多输入单输出的.我们对HNR算法的收敛性和泛化能力作了理论上的研究.仿真实验和在催化重整过程建模中的应用实例表明该算法在一定条件下具有很高的学习速度和较强的泛化能力. 展开更多
关键词 神经网络 学习算法 隐节点校正算法
下载PDF
BP网络隐节点数与计算复杂度的关系 被引量:11
6
作者 李武林 郝玉洁 《成都信息工程学院学报》 2006年第1期70-73,共4页
利用多层网络BP算法对复杂的函数进行逼近来讨论BP网络训练过程的训练误差和检验误差的关系,详细对隐节点的个数及取最优隐节点分布、复相关系数、检验误差以及网络输入为维数与计算复杂度的关系进行讨论,最后分析并检验所得关系的正确性。
关键词 隐节点 复相关系数 网络输入维数 计算复杂度
下载PDF
用线性方法分析OINN中的隐节点数
7
作者 盛翊智 赵广涛 瞿坦 《华中理工大学学报》 CSCD 北大核心 1995年第3期14-17,共4页
以分析输出OINN为基础、提出了分析前向神经网络隐节点数的线性方法,这种方法得出的隐节点数虽然只是充分条件,不是必要条件,但是得到的结果大大减少了网络不必要的隐节点数。
关键词 神经网络 隐节点 输出互不相关 线性
下载PDF
通过最小二乘拟合方法删除神经网络的隐节点 被引量:2
8
作者 梁循 《微机发展》 2005年第1期4-7,共4页
提出了一种基于隐节点输出行向量的最小二乘拟合来删除神经网络隐节点的方法。它分成两步,首先分析隐节点输出行向量的正交投影间的关系,通过最小二乘拟合找出可以最准确地被其它隐节点输出行向量表达的隐节点输出行向量,然后将该隐节... 提出了一种基于隐节点输出行向量的最小二乘拟合来删除神经网络隐节点的方法。它分成两步,首先分析隐节点输出行向量的正交投影间的关系,通过最小二乘拟合找出可以最准确地被其它隐节点输出行向量表达的隐节点输出行向量,然后将该隐节点的作用利用最小二乘拟合系数进行纵向传播分摊到其它隐节点。最后删除该隐节点,并进行再训练,实验结果表明再训练所需时间很短,因而它的实用性很强。 展开更多
关键词 最小二乘拟合 正交投影 纵向传播 隐节点 删除
下载PDF
隐节点数可变的BP网络研究与应用 被引量:2
9
作者 张友邦 封宇行 《计算机工程与应用》 CSCD 北大核心 2001年第17期99-101,共3页
BP网络在工程实际中有着广泛而重要的应用价值,但它却也难以避免学习时间长、训练精度不高等一系列问题。文章提出的一种隐节点数动态增长的网络模型“Dynamic Middle Layer Backpropagation Network”,简称DMLBPN,增加了网络的灵活... BP网络在工程实际中有着广泛而重要的应用价值,但它却也难以避免学习时间长、训练精度不高等一系列问题。文章提出的一种隐节点数动态增长的网络模型“Dynamic Middle Layer Backpropagation Network”,简称DMLBPN,增加了网络的灵活性、缩短了网络的训练时间并提高了训练结果的精度。把它应用于无限制脱机手写数字识别中,取得了显著的成效。 展开更多
关键词 神经网络 BP网络 学习算法 隐节点
下载PDF
一种优化多层前馈神经网络中隐节点数的算法 被引量:23
10
作者 周红晓 蔡俊 任德官 《浙江师范大学学报(自然科学版)》 CAS 2002年第3期268-271,共4页
多层神经元网络中隐含层的层数及其每一层的神经元数的多寡 ,至今仍无法用一个解析式精确求得 .提出了一种基于黄金分割法的算法 ,用于求解三层前馈神经网络中的隐层节点数 ,所得结果有助于提高三层前馈神经网络整体品质 .
关键词 多层前馈神经网络 BP算法 节点 黄金分割法 MATLAB 神经网络工具箱
下载PDF
动态神经网络的隐节点增删算法研究 被引量:3
11
作者 徐小文 张雨浓 毛宗源 《仲恺农业技术学院学报》 1998年第4期20-23,共4页
在前人关于动态结构神经网络研究的基础上,提出了一种综合性质的隐节点增删算法:由训练过程的均方差和误差衰减率来确定神经元的增删时刻,并采用矩阵分析的方法研究隐节点输出间的线性相关性,动态删除多余的隐节点,计算机仿真结果... 在前人关于动态结构神经网络研究的基础上,提出了一种综合性质的隐节点增删算法:由训练过程的均方差和误差衰减率来确定神经元的增删时刻,并采用矩阵分析的方法研究隐节点输出间的线性相关性,动态删除多余的隐节点,计算机仿真结果表明,采用该方法动态增删隐节点是有效的。 展开更多
关键词 线性相关 动态神经 隐节点增删算法 计算机仿真实验
下载PDF
隐节点竞争BP模型
12
作者 卢显锋 罗四维 《北方交通大学学报》 CSCD 北大核心 1995年第4期553-557,共5页
通过分析BP网络在局部极小状态下的微观特性,给出一种在隐藏层引入竞争机制的网络模型──隐节点竞争BP模型,试验表明该模型不仅有效地克服了局部极小问题,而且加快了学习速度。另外,还对本文提出的O竞争和已有的δ竞争进行了... 通过分析BP网络在局部极小状态下的微观特性,给出一种在隐藏层引入竞争机制的网络模型──隐节点竞争BP模型,试验表明该模型不仅有效地克服了局部极小问题,而且加快了学习速度。另外,还对本文提出的O竞争和已有的δ竞争进行了比较,并验证了O竞争的有效性。 展开更多
关键词 神经网络 BP模型 隐节点竞争
下载PDF
确定LSRBF神经网络隐节点数的单调指数法 被引量:1
13
作者 吴成茂 《西安邮电学院学报》 2005年第1期93-97,共5页
针对仅利用训练样本输入信息进行非监督聚类来确定LSRBF神经网络隐层节点数存在的不足,本文提出了基于训练样本输入输出全部信息的修正单调指数法来确定LSRBF神经网络隐层节点数。实验结果表明,该方法是可行的。
关键词 Log—sigmoid函数 RBF神经网络 节点 单调指数
下载PDF
基于最佳泛化能力的BP网络隐节点数反比关系式的环境预测模型 被引量:2
14
作者 李祚泳 余春雪 +1 位作者 张正健 汪嘉杨 《环境科学学报》 CAS CSCD 北大核心 2021年第2期718-730,共13页
网络结构和样本集复杂性是影响BP网络泛化能力的两个最重要因素.对一个给定的训练样本集,为了构造一个与样本集复杂性相匹配的网络结构,使BP网络具有最佳泛化能力,在分析BP网络的泛化能力(用检测误差E_(2)表示)与网络结构和样本集复杂... 网络结构和样本集复杂性是影响BP网络泛化能力的两个最重要因素.对一个给定的训练样本集,为了构造一个与样本集复杂性相匹配的网络结构,使BP网络具有最佳泛化能力,在分析BP网络的泛化能力(用检测误差E_(2)表示)与网络结构和样本集复杂性之间关系的基础上,建立了含参数的BP网络检测误差E_(2)与网络隐节点数H、样本的因子数n、样本数N和样本集的复相关系数R之间的一般关系表达式,并提出了用于定量描述样本集复杂性的“广义”复相关系数Rn的新概念.借助于222个复杂函数的模拟仿真实验,应用免疫进化算法,对表达式中的参数进行优化,得到参数优化后的网络检测误差E_(2)的定量解析表达式;依据误差理论和灵敏度概念,对优化得到的最小检测误差E_(20)的表达式进行了可靠性论证.在此基础上导出了具有最佳泛化能力的BP网络隐节点数H_(0)与“广义”复相关系数Rn之间满足的H_(0)-R_(n)反比关系式.分别用满足H_(0)-R_(n)反比关系式的隐节点数和6个经验公式的隐节点数构造的BP网络用于100个模拟检测函数进行仿真实验,发现前者构造的BP网络具有最佳泛化能力(即最小检测误差)的函数个数达到76个,远远多于后者构造的BP网络具有最佳泛化能力的函数个数;还将二者构造的BP网络用于环境预测的7个具体实例,进行预测效果比较,结果表明,前者预测的相对误差绝对值的平均值和最大值小于或远小于后者的相应值.从而验证了由H0-Rn反比关系式得出的BP网络隐节点数计算公式的可行性和实用性,为具有最佳泛化能力的BP网络的结构设计指出了新途径. 展开更多
关键词 BP网络 泛化能力 网络结构 隐节点 广义复相关系数 H_(0)-R_(n)反比关系式 预测模型
原文传递
BP网络中隐含层节点优化的研究 被引量:13
15
作者 刘维群 李元臣 《交通与计算机》 2005年第2期83-86,共4页
在BP网络中,增加隐含层可提高BP网络的处理能力,但同时也增加了隐节点的个数,导致训练时间延长。文章分析了传统BP算法的训练过程及存在的问题,针对该问题,提出一种改进算法,即合并或删除隐结点。实验证明。
关键词 BP网络 含层节点 处理能力 训练时间 训练过程 BP算法 改进算法 实验证明 收敛速度 优化网络 隐节点 结点 删除
下载PDF
一种确定神经网络隐层节点数的新方法 被引量:37
16
作者 张清良 李先明 《吉首大学学报(自然科学版)》 CAS 2002年第1期89-91,共3页
针对神经网络结构确定中隐层节点数确定难的问题 ,提出了一种确定神经网络隐层节点数的新方法 .本方法计算量小 ,使用方便 。
关键词 神经网络 节点 学习算法 输入层 输出层 网络训练 误差函数
下载PDF
一种新的基于Agent的神经网络隐层节点数的优化算法 被引量:8
17
作者 高鹏毅 陈传波 +1 位作者 秦升 胡迎松 《计算机工程与科学》 CSCD 北大核心 2010年第5期30-33,共4页
本文提出了一种新的基于Agent的神经网络隐层结构的优化算法(OHA)。该方法包括两个部分,分别由RLAgent和NNAgent合作完成。RLAgent根据强化学习算法找到一个比当前节点数更优的解,并反馈给NNAgent。NNAgent据此构建相应的网络,并采用分... 本文提出了一种新的基于Agent的神经网络隐层结构的优化算法(OHA)。该方法包括两个部分,分别由RLAgent和NNAgent合作完成。RLAgent根据强化学习算法找到一个比当前节点数更优的解,并反馈给NNAgent。NNAgent据此构建相应的网络,并采用分层训练的算法对该网络进行优化,训练结果再发给RLAgent。在多次循环后,OHA算法就可以找到一个训练误差最小的全局最优解(权值及隐层节点数)。本文讨论了有关的算法、测试和结果分析。Iris数据集和危险评估数据集的测试结果表明,算法避免了盲目搜索造成的计算开销,明显改善了优化性能。 展开更多
关键词 神经网络 节点 层结构优化 智能代理 强化学习
下载PDF
确定RBF神经网络隐层节点数的最大矩阵元法 被引量:19
18
作者 吴成茂 范九伦 《计算机工程与应用》 CSCD 北大核心 2004年第20期77-79,共3页
针对基于训练样本输入信息进行非监督聚类来确定RBF神经网络隐层节点数的方法存在利用信息不充分的缺陷,该文提出了一种新的确定RBF神经网络隐层节点数的方法。利用训练样本输入输出全部信息建立样本间的相似矩阵,然后采用最大矩阵元法... 针对基于训练样本输入信息进行非监督聚类来确定RBF神经网络隐层节点数的方法存在利用信息不充分的缺陷,该文提出了一种新的确定RBF神经网络隐层节点数的方法。利用训练样本输入输出全部信息建立样本间的相似矩阵,然后采用最大矩阵元法来确定RBF神经网络隐层节点数。实验仿真表明,该方法是有效的。 展开更多
关键词 RBF神经网络 节点 相似矩阵 最大矩阵元法
下载PDF
隐层节点数经验公式在水库调度规则提取中的应用效果评价 被引量:5
19
作者 刘宇 钟平安 +2 位作者 张梦然 孔艳 徐斌 《水电能源科学》 北大核心 2012年第11期42-44,213,共4页
隐层节点数是确定人工神经网络模型结构的重要参数,但目前尚无通用的确定方法。以水库中长期优化调度规则提取为例,选择了四种典型的隐层节点数经验确定公式,将合格率、确定性系数、平均绝对误差、指标综合占优数等作为评价指标,以全年... 隐层节点数是确定人工神经网络模型结构的重要参数,但目前尚无通用的确定方法。以水库中长期优化调度规则提取为例,选择了四种典型的隐层节点数经验确定公式,将合格率、确定性系数、平均绝对误差、指标综合占优数等作为评价指标,以全年、汛期、非汛期为统计时段,评价了各经验公式对四项评价指标的拟合和检验效果,并进行了摄动分析。结果表明,Lippmann R P公式应用效果、适应性及稳定性均较好,更适合建立水库优化调度规则提取模型。 展开更多
关键词 水库调度规则 人工神经网络模型 节点 经验公式
原文传递
水库优化调度ANN模型隐层节点数经验公式比较 被引量:6
20
作者 刘宇 钟平安 +2 位作者 张梦然 顾锦 孔艳 《水力发电》 北大核心 2013年第5期65-68,共4页
人工神经网络(ANN)应用于水库中长期调度时,隐层节点数尚无公认的选择标准。选取常用的4种确定隐层节点数的经验公式,采用合格率、确定性系数、平均绝对误差、指标综合占优数等指标,以全年、汛期、非汛期为统计时段,选取三峡、池潭、隔... 人工神经网络(ANN)应用于水库中长期调度时,隐层节点数尚无公认的选择标准。选取常用的4种确定隐层节点数的经验公式,采用合格率、确定性系数、平均绝对误差、指标综合占优数等指标,以全年、汛期、非汛期为统计时段,选取三峡、池潭、隔河岩等3个水库为对象,评价各经验公式对不同水库的普适性及可替代性。结果表明,各经验公式对不同水库、不同时段的应用效果存在一定差异,但对发电量最大为目标的模拟调度效果相差不大,可优先考虑使用隐层节点数最少的Lippmann公式建模。 展开更多
关键词 水库中长期调度 调度规则提取 人工神经网络(ANN) 节点
下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部