期刊文献+
共找到29篇文章
< 1 2 >
每页显示 20 50 100
基于可解释性机器学习的阿尔茨海默症痴呆风险预测
1
作者 富丹 孙悦 +2 位作者 郭金兴 陈广新 韩杨 《新一代信息技术》 2023年第24期12-16,共5页
阿尔茨海默病(AD)是当今社会面临的重要挑战之一,早期诊断对于有效治疗AD至关重要。本研究探索了机器学习算法在预测AD风险方面的应用,并使用了多种模型进行比较。结果显示选择的多种模型,由于数据集中的缺失值,预测效果并不理想。SHAP... 阿尔茨海默病(AD)是当今社会面临的重要挑战之一,早期诊断对于有效治疗AD至关重要。本研究探索了机器学习算法在预测AD风险方面的应用,并使用了多种模型进行比较。结果显示选择的多种模型,由于数据集中的缺失值,预测效果并不理想。SHAP特征分析揭示了抑郁症和APOEε4等位基因在模型预测中的关键作用。未来的研究应进一步探索这些遗传和环境因素对AD发病机制的影响,并利用先进技术优化预测模型,以提高早期诊断和干预能力,为阿尔茨海默症的预防和治疗提供更精准有效的方法。 展开更多
关键词 机器学习 SHAP 模型可解释性 风险预测
下载PDF
神经网络与解释模型在非结冰期含沙量预测中的应用 被引量:1
2
作者 白鹭 鲁思琪 +3 位作者 信昆仑 任鹏 朱赫 穆旭东 《计算机系统应用》 2023年第12期276-283,共8页
基于大量历史数据的预测在环境治理、城市交通等领域已经成为必不可少的一个环节,预测的准确性对实际生产、调度等工作有着重要影响.受自然因素或人为因素的影响,一些数据表现出高波动性以及不确定性,导致无法充分发挥预测模型的最大优... 基于大量历史数据的预测在环境治理、城市交通等领域已经成为必不可少的一个环节,预测的准确性对实际生产、调度等工作有着重要影响.受自然因素或人为因素的影响,一些数据表现出高波动性以及不确定性,导致无法充分发挥预测模型的最大优势.本研究以非结冰期含沙量预测为案例,探究了针对高波动性数据预测的优化方法,发现通过基于SHAP方法的特征选择优化、数据平稳化以及前期聚类可以有效降低对高波动数据的预测误差,MAE从初始模型的1.502降低到0.194,其中数据平稳化的优化效果最显著,MAE降低了76.51%,但随着平稳化的阶数增大,预测结果反而变差,这是由于随着平稳化的阶数越高,后续指数化的阶数也对应提升,从而导致误差的指数倍增长.此外,将聚类结果作为特征输入可以有效“引导”多层感知机的参数学习过程. 展开更多
关键词 高波动数据 预测优化 人工神经网络 模型可解释性 特征选择
下载PDF
可解释性旅游需求量预测模型综述
3
作者 王馨玉 《智能计算机与应用》 2020年第10期54-55,58,共3页
本文针对传统的旅游需求量预测模型,建立一种可解释性模型。此外,用LIME方法对该模型的可解释性进行研究,分析对旅游需求量数据影响权重最大的因素,为相关单位提供决策依据和其他旅游景区旅游需求量预测提供参考。
关键词 旅游需求量 可解释性模型 可解释性 LIME
下载PDF
利用LIME对脓毒症预测模型进行可解释性分析 被引量:6
4
作者 黄艺龙 秦小林 +2 位作者 陈芋文 张力戈 易斌 《计算机应用》 CSCD 北大核心 2021年第S01期332-335,共4页
针对机器学习应用于脓毒症预测存在预测准确率低和可解释性不足的问题,提出了利用LIME对基于机器学习的脓毒症预测模型进行可解释性分析。模型由预测和解释两部分组成:预测部分使用XGBoost和线性回归(LR),首先通过XGBoost进行特征提取,... 针对机器学习应用于脓毒症预测存在预测准确率低和可解释性不足的问题,提出了利用LIME对基于机器学习的脓毒症预测模型进行可解释性分析。模型由预测和解释两部分组成:预测部分使用XGBoost和线性回归(LR),首先通过XGBoost进行特征提取,再利用LR对提取到的特征进行分类;解释部分使用LIME模型提取出关键的预测指标对模型进行解释。实验结果表明,通过XGBoost+LR模型进行脓毒症预测的准确率为99%,受试者工作特征曲线下面积(AUROC)为0.984,优于单独使用XGBoost(准确率:95%,AUROC:0.953)和LR(准确率:53%,AUROC:0.556)或者LGBM(准确率:90%,AUROC:0.974),同时通过LIME能有效地提取出前10个最重要的指标,对脓毒症预测模型进行可解释性分析,提高了模型的可信度。 展开更多
关键词 脓毒症 机器学习 XGBoost 模型可解释性 LIME
下载PDF
基于HA-RF-SHAP的露天煤矿粉尘浓度预测模型 被引量:1
5
作者 金磊 杨晓伟 +4 位作者 张浩 杜勇志 李新鹏 戴春田 周伟 《西安科技大学学报》 CAS 北大核心 2024年第1期74-83,共10页
为了有效预测和控制煤矿粉尘浓度,保障煤矿工人健康及环境安全,以宝日希勒露天煤矿现场粉尘监测数据为基础,使用随机森林对粉尘浓度进行预测,提出了4种启发式智能优化算法优化随机森林超参数的方法,通过RMSE、MAE和皮尔逊相关系数R对模... 为了有效预测和控制煤矿粉尘浓度,保障煤矿工人健康及环境安全,以宝日希勒露天煤矿现场粉尘监测数据为基础,使用随机森林对粉尘浓度进行预测,提出了4种启发式智能优化算法优化随机森林超参数的方法,通过RMSE、MAE和皮尔逊相关系数R对模型进行评价,采用SHAP可解释模型分析影响露天煤矿粉尘浓度的因素。结果表明:PM2.5、PM10、TSP的最优模型分别为GWO-RF、WOA-RF和HHO-RF;超参数调整使模型整体RMSE指标提升约为1~3,MAE提升约为1~2.5,R提升约4%~6%;PM2.5的预测表现最好,训练集与测试集共同作用时,R为0.9463,MAE为3.059,RMSE为4.919,其次是PM10、TSP;单因素作用时,湿度对于该矿粉尘浓度影响最大,双因素同时影响下湿度和气压对粉尘浓度变化影响最大。研究提供了一个有效的粉尘浓度预测方法,可准确预测粉尘浓度并确定粉尘最影响因素,对矿山粉尘管控具有重要参考价值。 展开更多
关键词 露天煤矿 粉尘浓度预测 启发式算法 SHAP 模型可解释性
下载PDF
基于可解释图神经网络模型的社交媒体谣言识别研究 被引量:1
6
作者 汪子航 言鹏韦 蒋卓人 《情报学报》 CSSCI CSCD 北大核心 2023年第11期1369-1381,共13页
随着社交媒体数据规模的增长与数据形式的复杂化,社交媒体谣言识别研究面临新的挑战。一方面,谣言传播网络中的复杂结构特征难以被充分挖掘;另一方面,亟须探索基于深度神经网络的谣言识别模型的可解释性。本文设计和实现了具备可解释性... 随着社交媒体数据规模的增长与数据形式的复杂化,社交媒体谣言识别研究面临新的挑战。一方面,谣言传播网络中的复杂结构特征难以被充分挖掘;另一方面,亟须探索基于深度神经网络的谣言识别模型的可解释性。本文设计和实现了具备可解释性的图神经网络模型应用于谣言识别任务。具体而言,本文在运用残差图卷积神经网络模型进行谣言识别的基础上,进一步训练基于掩码学习的图神经网络解释器,不仅将谣言传播网络结构特征纳入识别模型,而且从传播网络结构和传播节点属性两个视角对图神经网络模型自动生成解释。本文基于新浪微博(中文)和推特(英文)来源的两个网络谣言数据集进行实验,并从全局与个案两个层面进行解释性分析。研究结果显示,本文提出的图神经网络模型可以有效利用谣言传播网络结构特征,在谣言识别任务中的表现超过了一系列对照组模型。结合图神经网络解释器生成的解释可以发现,在较大规模的谣言传播树中,长传播链条是谣言的关键网络拓扑结构;在规模较小的谣言传播树中,文本特征是关键的节点属性。 展开更多
关键词 社交网络 谣言识别 图神经网络 模型可解释性
下载PDF
考虑因果约束的异常对象反事实解释
7
作者 童启辉 周鹏 张燕平 《计算机系统应用》 2024年第10期140-151,共12页
现有的异常检测方法大多关注算法的效率和精确度等,而忽视了异常对象的可解释性.反事实解释方法是当前可解释机器学习的研究热点之一,旨在通过对研究对象的特征进行扰动,进而生成反事实示例以解释模型的决策结果.在实际应用中,特征之间... 现有的异常检测方法大多关注算法的效率和精确度等,而忽视了异常对象的可解释性.反事实解释方法是当前可解释机器学习的研究热点之一,旨在通过对研究对象的特征进行扰动,进而生成反事实示例以解释模型的决策结果.在实际应用中,特征之间可能存在某种因果关系.然而,现有基于反事实的可解释方法大多关注如何生成更多样的反事实示例,却忽视了特征之间的因果关系,导致可能产生不合理的反事实解释.为此,提出了一种考虑因果约束的异常对象反事实解释算法IARC.该方法在生成反事实解释时,通过将特征间的因果性纳入目标函数来衡量该次扰动是否可行,并通过改进后的遗传算法进行求解,从而生成合理的反事实解释.此外,提出了一种新的度量指标,用于衡量所生成反事实解释的矛盾程度.同多个先进反事实解释方法在多个真实数据集上进行了对比实验和详细的案例可解释分析.实验结果表明,所提出的方法能够为异常对象生成具有强合理性的反事实解释. 展开更多
关键词 模型可解释性 异常检测 反事实解释 遗传算法 因果关系
下载PDF
一种即时软件缺陷预测模型及其可解释性研究 被引量:1
8
作者 陈丽琼 王璨 宋士龙 《小型微型计算机系统》 CSCD 北大核心 2022年第4期865-871,共7页
即时软件缺陷预测是保障软件安全与质量相统一的必要途径,在软件工程领域受到越来越多的关注.然而,现有数据集存在特征冗余和特征相关性低的情况,极大影响了即时软件缺陷预测模型的分类性能和稳定性.此外,分析缺陷数据特征对模型的影响... 即时软件缺陷预测是保障软件安全与质量相统一的必要途径,在软件工程领域受到越来越多的关注.然而,现有数据集存在特征冗余和特征相关性低的情况,极大影响了即时软件缺陷预测模型的分类性能和稳定性.此外,分析缺陷数据特征对模型的影响尤为重要,但如今对软件缺陷预测模型进行解释性研究较少.针对这些问题,文章基于6个开源项目的227417个代码级变更的大规模实证研究,创新性地选择了SHAP+SMOTEENN+XGBoost(SHAP-SEBoost)构建即时软件缺陷预测模型.首先通过SHAP(SHapley Additive exPlanation)模型可解释器分析初始数据集特征,并根据分析结果对数据集进行相应的特征选择与组合.然后,利用SMOTEENN对类不平衡的缺陷数据进行正负样本均衡化,使用集成学习算法XGBoost对实验数据进行预测建模.最后,使用SHAP对本文模型进行可解释性分析.实验结果表明SHAP-SEBoost有效地提高了分类性能,与基线模型以及近年优秀模型相比AUC平均提高11.6%,F1平均提升33.5%. 展开更多
关键词 即时软件缺陷预测 模型可解释性 特征工程 集成学习
下载PDF
基于数字钻探与多尺度模型融合的隧道岩体完整性自动解译技术研究及应用
9
作者 梁铭 彭浩 +6 位作者 解威威 韩玉 宋冠先 朱孟龙 黄能豪 周邦鸿 卢振龙 《岩土工程学报》 EI CAS CSCD 北大核心 2024年第2期396-405,共10页
在多岩性与多指标钻探数据收集的基础上,综合考虑解译精度与预报效果,借助机器学习工具,提出一种基于数字钻探与多尺度模型融合的隧道岩体完整性自动解译技术。首先,对原始钻探数据有针对性的进行降噪与等距分割(0.5,1,2 m)等预处理,形... 在多岩性与多指标钻探数据收集的基础上,综合考虑解译精度与预报效果,借助机器学习工具,提出一种基于数字钻探与多尺度模型融合的隧道岩体完整性自动解译技术。首先,对原始钻探数据有针对性的进行降噪与等距分割(0.5,1,2 m)等预处理,形成多尺度、高质量机器学习数据集;然后,进行模型参数自动寻优、训练、评估与可解释性等操作,验证模型的准确性与可靠性;最后,采用加权平均的方法进行多尺度模型解译结果的融合,以增强该技术的工程实用效果。为方便实际工程应用,以上述技术为核心开发轻量化数字钻探智能解译平台,经多条灰岩与砂岩隧道应用结果表明:对比地质雷达与常规钻探解译,多尺度模型融合解译在解译效率、预测效果等方面总体表现优异,可为隧道施工的开挖与支护提供可靠的岩体完整性信息。 展开更多
关键词 隧道工程 超前钻探预报 岩体质量评价 机器学习 模型可解释性
原文传递
基于机器学习的非心肺转流冠状动脉旁路移植术相关急性肾损伤的预测模型 被引量:2
10
作者 曾智贺 张铁铮 +3 位作者 刁玉刚 宋沛 衣卓 李林 《临床麻醉学杂志》 CAS CSCD 北大核心 2023年第5期453-460,共8页
目的建立基于机器学习的非心肺转流冠状动脉旁路移植术相关的急性肾损伤(OPCABG-AKI)可解释性机器学习预测模型。方法回顾性收集2018—2021年行OPCABG的1110例患者的临床资料。建立并比较8种机器学习模型,采用Python的SHAP模型解释包对... 目的建立基于机器学习的非心肺转流冠状动脉旁路移植术相关的急性肾损伤(OPCABG-AKI)可解释性机器学习预测模型。方法回顾性收集2018—2021年行OPCABG的1110例患者的临床资料。建立并比较8种机器学习模型,采用Python的SHAP模型解释包对预测性能最佳的黑箱模型进行解释性分析。将特征参数SHAP绝对值的平均值定义为该参数的重要性并进行排序;以SHAP值为依据确定各特征参数与OPCABG-AKI的关系;对主要风险因素进行单个特征量化分析;对模型中具有代表性的真阳性及真阴性样本进行独立的解释性分析。结果共有405例(36.5%)患者发生AKI。在8种机器学习模型中,随机森林(RF)预测模型性能最优,针对阳性样本的受试者工作特征曲线(ROC)下面积(AUC)为0.90(95%CI 0.86~0.94)。SHAP模型解释性分析结果显示术中尿量对RF模型的贡献最大,其次为诱导期循环变异系数、术中右美托咪定用量、术中舒芬太尼用量、术中低血压时间、术前血清肌酐基线、APACHEⅡ分数和年龄等。结论以随机森林集成学习算法构建模型可较好地预测OPCABG-AKI,模型中术中尿量等指标与OPCABG-AKI关系密切。 展开更多
关键词 非心肺转流冠状动脉旁路移植术 急性肾损伤 机器学习 可解释性模型
下载PDF
融合可解释性特征的糖尿病视网膜病变自动诊断
11
作者 蒋杰伟 雷舒陶 +7 位作者 耿苗苗 巩稼民 朱泽昊 张运生 刘芳 吴艺杰 王育文 李中文 《中国医学物理学杂志》 CSCD 2022年第5期640-646,共7页
糖尿病视网膜病变(DR)已成为全球4大主要致盲疾病之一,及早确诊可以有效降低患者视力受损的风险。通过融合深度学习可解释性特征,提出一种DR自动诊断方法,首先利用导向梯度加权类激活映射图和显著图两种可解释性方法生成不同标记的病灶... 糖尿病视网膜病变(DR)已成为全球4大主要致盲疾病之一,及早确诊可以有效降低患者视力受损的风险。通过融合深度学习可解释性特征,提出一种DR自动诊断方法,首先利用导向梯度加权类激活映射图和显著图两种可解释性方法生成不同标记的病灶图像,再通过卷积神经网络提取原图像和两种生成图像的特征向量,最后融合3种特征向量并输入到支持向量机中以实现DR的自动诊断。在1443张彩色眼底图像构成的数据集上,相对于基础ResNet50模型,该方法诊断准确率提高3.6%,特异性提高2.4%,灵敏度提高5.8%,精度提高4.6%,Kappa系数提高7.9%,实验结果表明该方法能有效降低误诊的风险。 展开更多
关键词 糖尿病视网膜病变 深度学习 集成学习 可解释性模型 支持向量机
下载PDF
一种改进的可解释SAR图像识别网络
12
作者 李鹏 冯存前 胡晓伟 《空军工程大学学报》 CSCD 北大核心 2023年第4期49-55,共7页
SAR-BagNet模型是一种应用于合成孔径雷达(SAR)图像识别的可解释深度学习模型。为了使SAR-BagNet模型在具有可解释性的同时具有较高的识别精度,以SAR-BagNet模型为基础,在模型框架中加入了空间注意力和坐标注意力机制,并在MSTAR实测数... SAR-BagNet模型是一种应用于合成孔径雷达(SAR)图像识别的可解释深度学习模型。为了使SAR-BagNet模型在具有可解释性的同时具有较高的识别精度,以SAR-BagNet模型为基础,在模型框架中加入了空间注意力和坐标注意力机制,并在MSTAR实测数据集上进行了实验。实验结果表明,空间注意力和坐标注意力机制增强了SAR-BagNet模型的全局信息获取能力,能够在不降低其可解释性的基础上,有效提高模型的识别精度和决策合理性。 展开更多
关键词 深度学习 SAR图像识别 模型可解释性 注意力机制
下载PDF
针对可逆神经网络的可视化解释方法
13
作者 牟新颖 宋冰冰 +3 位作者 李钒效 郑奕森 周维 董云云 《网络与信息安全学报》 2023年第6期154-165,共12页
为了更好地理解深度神经网络(DNN,deep neural network)在应用过程中出现的决策依据未知以及容易受到对抗攻击等安全问题,模型可解释性受到广泛关注。虽然越来越多的学者针对传统深度神经网络的可解释性进行了研究,但对可逆神经网络的... 为了更好地理解深度神经网络(DNN,deep neural network)在应用过程中出现的决策依据未知以及容易受到对抗攻击等安全问题,模型可解释性受到广泛关注。虽然越来越多的学者针对传统深度神经网络的可解释性进行了研究,但对可逆神经网络的运行机制和可解释性的探索还存在不足,且现有针对传统深度神经网络的解释方法不适用于可逆神经网络,存在噪声大、梯度饱和等问题。因此,提出一种针对可逆神经网络的可视化解释方法,其基于类激活映射机制,利用可逆神经网络的可逆特性探索特征图与输入图像之间的区域对应关系,使得区域特征图的分类权重可映射到输入图像的对应区域,得到输入图像每个区域对模型决策的重要程度,从而生成模型决策依据。在通用数据集上,将所提方法与其他解释方法进行实验比较,所提方法取得了更集中的视觉效果,在识别任务中,相较于次优方法平均下降(AD,average drop)指标提升7.80%,平均上升(AI,average increase)指标提升6.05%,热值最大点的定位水平达到82.00%,同时,所提方法可以对传统深度神经网络进行解释且其良好的扩展性可以提高其他方法对可逆神经网络的解释性能。另外,在对抗攻击解析实验中发现,对抗攻击使得模型的决策依据发生改变,体现在模型的关注区域发生错位,这有助于探究对抗攻击的运行机制。 展开更多
关键词 模型可解释性 可逆神经网络 可视化 类激活映射 人工智能安全
下载PDF
面向目标用户的深度学习模型可视化综述
14
作者 胡凯茜 李欣 裴炳森 《计算机系统应用》 2023年第11期36-47,共12页
深度学习模型在某些场景的实际应用中要求其具备一定的可解释性,而视觉是人类认识周围世界的基本工具,可视化技术能够将模型训练过程从不可见的黑盒状态转换为可交互分析的视觉过程,从而有效提高模型的可信性和可解释度.目前,国内外相... 深度学习模型在某些场景的实际应用中要求其具备一定的可解释性,而视觉是人类认识周围世界的基本工具,可视化技术能够将模型训练过程从不可见的黑盒状态转换为可交互分析的视觉过程,从而有效提高模型的可信性和可解释度.目前,国内外相关领域缺少有关深度学习模型可视化工具的综述,也缺乏对不同用户实际需求的研究和使用体验的评估.因此,本文通过调研近年来学术界模型可解释性和可视化相关文献,总结可视化工具在不同领域的应用现状,提出面向目标用户的可视化工具分类方法及依据,对每一类工具从可视化内容、计算成本等方面进行介绍和对比,以便不同用户选取与部署合适的工具.最后在此基础上讨论可视化领域存在的问题并加以展望. 展开更多
关键词 可视化工具 深度学习模型 模型可解释性 目标用户 注意力机制
下载PDF
基于学习的源代码漏洞检测研究与进展
15
作者 苏小红 郑伟宁 +3 位作者 蒋远 魏宏巍 万佳元 魏子越 《计算机学报》 EI CSCD 北大核心 2024年第2期337-374,共38页
源代码漏洞自动检测是源代码漏洞修复的前提和基础,对于保障软件安全具有重要意义.传统的方法通常是基于安全专家人工制定的规则检测漏洞,但是人工制定规则的难度较大,且可检测的漏洞类型依赖于安全专家预定义的规则.近年来,人工智能技... 源代码漏洞自动检测是源代码漏洞修复的前提和基础,对于保障软件安全具有重要意义.传统的方法通常是基于安全专家人工制定的规则检测漏洞,但是人工制定规则的难度较大,且可检测的漏洞类型依赖于安全专家预定义的规则.近年来,人工智能技术的快速发展为实现基于学习的源代码漏洞自动检测提供了机遇.基于学习的漏洞检测方法是指使用基于机器学习或深度学习技术来进行漏洞检测的方法,其中基于深度学习的漏洞检测方法由于能够自动提取代码中漏洞相关的语法和语义特征,避免特征工程,在漏洞检测领域表现出了巨大的潜力,并成为近年来的研究热点.本文主要回顾和总结了现有的基于学习的源代码漏洞检测技术,对其研究和进展进行了系统的分析和综述,重点对漏洞数据挖掘与数据集构建、面向漏洞检测任务的程序表示方法、基于机器学习和深度学习的源代码漏洞检测方法、源代码漏洞检测的可解释方法、细粒度的源代码漏洞检测方法等五个方面的研究工作进行了系统的分析和总结.在此基础上,给出了一种结合层次化语义感知、多粒度漏洞分类和辅助漏洞理解的漏洞检测参考框架.最后对基于学习的源代码漏洞检测技术的未来研究方向进行了展望. 展开更多
关键词 软件安全 源代码漏洞检测 漏洞数据挖掘 漏洞特征提取 代码表示学习 深度学习 模型可解释性 漏洞检测
下载PDF
基于文本引导下的多模态医学图像分析算法
16
作者 樊琳 龚勋 郑岑洋 《电子学报》 EI CAS CSCD 北大核心 2024年第7期2341-2355,共15页
结合胃镜超声和白光内镜可以更准确地识别胃肠道间质瘤.但是现有的多模态方法往往仅关注于图像特征,忽略了诊断文本信息中所包含的语义信息对于精确理解和诊断医学图像的重要性.为此,本文提出一种新的基于文本引导下的多模态医学图像分... 结合胃镜超声和白光内镜可以更准确地识别胃肠道间质瘤.但是现有的多模态方法往往仅关注于图像特征,忽略了诊断文本信息中所包含的语义信息对于精确理解和诊断医学图像的重要性.为此,本文提出一种新的基于文本引导下的多模态医学图像分析算法框架(Text-guided Multi-modal Medical image analysis framework,TMM-Net).TMM-Net使用多阶段的诊断文本来引导模型学习,以提取图像中的关键诊断信息特征,然后通过交叉模态注意力机制促进多模态特征之间的交互.值得注意的是,TMM-Net通过预测病变属性来模拟临床诊断过程,从而增强了可解释性.验证实验在两个中心包含10 025个模态数据对的数据集上进行.结果表明,该方法相比目前最优的GISTs诊断方法精度提升7.7%,同时获得了最高的(Area Under the Curve,AUC)值:0.927,其可解释性可以更好地适合临床需求. 展开更多
关键词 多模态融合 模型可解释性 图像-文本匹配 胃肠道间质瘤 胃镜超声 白光内镜
下载PDF
基于注意力常微分方程的PM_(2.5)浓度预测及其可解释性分析
17
作者 王培晓 张恒才 +1 位作者 张彤 陆锋 《地球信息科学学报》 EI CSCD 北大核心 2024年第6期1363-1373,共11页
可解释的准确预测PM_(2.5)浓度变化可以有助于人类规避暴露风险,对人类健康风险评估和政策实施具有重要意义。目前已有PM_(2.5)浓度预测模型过多专注于提升模型预测精度,但忽略了模型的可解释性,造成模型可复用性和可信任度较差。鉴于此... 可解释的准确预测PM_(2.5)浓度变化可以有助于人类规避暴露风险,对人类健康风险评估和政策实施具有重要意义。目前已有PM_(2.5)浓度预测模型过多专注于提升模型预测精度,但忽略了模型的可解释性,造成模型可复用性和可信任度较差。鉴于此,本文提出了一种兼顾模型预测精度与模型可解释性的注意力时空常微分方程模型(Attentional SpatioTemporal Ordinary Differential Equation,ASTODE)用于PM_(2.5)浓度预测任务。具体而言,本文将神经常微分方程集成至PM_(2.5)浓度预测任务中,以提升预测模型的可解释性。此外,针对传统神经常微分方程难以挖掘PM_(2.5)浓度数据中空间依赖关系的挑战,本文提出了一种新颖时空导数网络将传统神经常微分方程扩展到了时空常微分方程。针对传统神经常微分方程难以挖掘PM_(2.5)浓度数据中长期依赖关系的挑战,本文设计了一种时空注意力机制去融合多个时间节点的隐藏状态。本文采用真实的PM_(2.5)浓度数据集对提出的ASTODE模型进行了验证。实验结果表明,ASTODE模型不仅在预测精度上优于或逼近于存在的6个基线方法,并且在可视化的视角下具有良好的可解释性。 展开更多
关键词 PM_(2.5)浓度预测 空气污染 节能减排 时空预测 注意力机制 神经常微分方程 时空常微分方程 模型可解释性
原文传递
基于灰狼优化支持向量机回归与SHAP值的锡冶炼能耗预测 被引量:2
18
作者 马朝君 彭巨擘 +4 位作者 袁海滨 郑光发 么长慧 章夏冰 冯早 《有色金属(冶炼部分)》 CAS 北大核心 2024年第2期1-7,共7页
锡冶炼过程综合能源消耗占整个锡生产过程90%,存在很大节能潜力。针对锡冶炼过程综合能耗机理模型难以建立、导致预测准确度不高的问题,提出灰狼优化的支持向量机回归(GWO-SVR)模型用于锡冶炼过程综合能耗的预测,并以某锡冶炼厂为例,将... 锡冶炼过程综合能源消耗占整个锡生产过程90%,存在很大节能潜力。针对锡冶炼过程综合能耗机理模型难以建立、导致预测准确度不高的问题,提出灰狼优化的支持向量机回归(GWO-SVR)模型用于锡冶炼过程综合能耗的预测,并以某锡冶炼厂为例,将所提模型与SVR、RF(随机森林)、BP(反向传播神经网络)、LR(线性回归)模型进行比较。结果表明,GWO-SVR模型可获得最理想的预测结果,在预测精度上相比于其他机器学习算法有着巨大优势。此外,使用SHAP值从全局解释和单样本解释两个方面解释所建立的GWO-SVR模型,可视化特征对输出的贡献,增加了GWO-SVR的可解释性,并以此制定可靠的节能策略。 展开更多
关键词 锡冶炼预测模型 模型可解释性 支持向量机回归 灰狼优化算法
下载PDF
用于蒸汽裂解产物成分预测的集成迁移学习框架
19
作者 郑可欣 江雨欣 +7 位作者 毕可鑫 赵祺铭 陈少臣 王冰冰 任俊宇 吉旭 邱彤 戴一阳 《化工进展》 EI CAS CSCD 北大核心 2024年第5期2880-2889,共10页
回顾了蒸汽裂解过程建模的方法,阐述了工业实际情况中面临的数据匮乏问题。面对石油化工行业大量的小数据集建模需求,充分利用历史生产数据,提出了一种集成迁移学习框架。首先,利用充足的数据在特定工况下建立了基本的深度学习模型。然... 回顾了蒸汽裂解过程建模的方法,阐述了工业实际情况中面临的数据匮乏问题。面对石油化工行业大量的小数据集建模需求,充分利用历史生产数据,提出了一种集成迁移学习框架。首先,利用充足的数据在特定工况下建立了基本的深度学习模型。然后,利用小数据集将迁移学习技术应用于新的工况,源域的专家知识通过基于参数的方法转移到目标领域。最后,引入集成学习来整合获得的迁移学习模型,从而提高性能。在几个实际案例上进行实践,研究了该模型框架的性能。为了更好地理解模型,还进一步实施了层可迁移性分析和SHapley Additive exPlanation(SHAP)特征重要性分析。结果说明该方法训练出的模型具有良好的准确性、稳定性、计算效率和可解释性,可以满足工业需求。 展开更多
关键词 模型 迁移学习 集成学习 算法 模型可解释性 石油 预测 神经网络
下载PDF
基于改进自注意力机制和表示学习的分层文档分类方法
20
作者 廖兴滨 钱杨舸 +1 位作者 王乾垒 秦小林 《计算机科学》 CSCD 北大核心 2024年第2期238-244,共7页
文档分类的一项基本工作是研究如何高效地表示输入特征,句子和文档向量表示也可以辅助自然语言处理的下游任务,如文本情感分析和数据泄露预防等。特征表示也逐渐成为文档分类问题的性能瓶颈和模型可解释性的关键之一。针对现有分层模型... 文档分类的一项基本工作是研究如何高效地表示输入特征,句子和文档向量表示也可以辅助自然语言处理的下游任务,如文本情感分析和数据泄露预防等。特征表示也逐渐成为文档分类问题的性能瓶颈和模型可解释性的关键之一。针对现有分层模型面临的大量重复计算以及可解释性缺乏的问题,提出了一种分层文档分类模型,并研究了句子和文档表示方法对文档分类问题的性能影响。所提模型集成了使用改进自注意力机制融合输入特征向量的句子编码器和文档编码器,形成了一个层次结构,以实现对文档级数据的分层处理,在简化计算的同时增强了模型的可解释性。与仅使用预训练语言模型的特殊标记向量作为句子表示的模型相比,所提模型在5个公开文档分类数据集上实现了平均4%的性能提升,比使用词向量矩阵的注意力输出均值的模型提高了2%。 展开更多
关键词 句子表示 文档表示 注意力机制 文档分类 模型可解释性
下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部