期刊文献+
共找到561篇文章
< 1 2 29 >
每页显示 20 50 100
基于人在回路的纵向联邦学习模型可解释性研究
1
作者 李晓欢 郑钧柏 +2 位作者 康嘉文 叶进 陈倩 《智能科学与技术学报》 CSCD 2024年第1期64-75,共12页
纵向联邦学习(vertical federated learning,VFL)常用于高风险场景中的跨领域数据共享,用户需要理解并信任模型决策以推动模型应用。现有研究主要关注VFL中可解释性与隐私之间的权衡,未充分满足用户对模型建立信任及调优的需求。为此,... 纵向联邦学习(vertical federated learning,VFL)常用于高风险场景中的跨领域数据共享,用户需要理解并信任模型决策以推动模型应用。现有研究主要关注VFL中可解释性与隐私之间的权衡,未充分满足用户对模型建立信任及调优的需求。为此,提出了一种基于人在回路(human-in-the-loop,HITL)的纵向联邦学习解释方法(explainable vertical federated learning based on human-in-the-loop,XVFL-HITL),通过构建分布式HITL结构将用户反馈纳入VFL的基于Shapley值的解释方法中,利用各参与方的知识校正训练数据来提高模型性能。进一步,考虑到隐私问题,基于Shapley值的可加性原理,将非当前参与方的特征贡献值整合为一个整体展示,从而有效保护了各参与方的特征隐私。实验结果表明,在基准数据上,XVFL-HITL的解释结果具有有效性,并保护了用户的特征隐私;同时,XVFL-HITL对比VFL-Random和直接使用SHAP的VFL-Shapley进行特征选择的方法,模型准确率分别提高了约14%和11%。 展开更多
关键词 纵向联邦学习 可解释性 人在回路 SHAPLEY值
原文传递
图神经网络算法架构及可解释性研究分析
2
作者 刘杰 王敏 +1 位作者 唐青梅 张萌月 《信息技术与信息化》 2024年第1期178-183,共6页
首先,全面概述了图神经网络的基本概念和意义,对基于谱的图神经网络、基于空域的图神经网络和其他图神经网络三个类别进行了系统性介绍,同时总结了训练过程中常用的优化技术。其次,分析了图神经网络领域目前面临的可解释性问题的挑战,... 首先,全面概述了图神经网络的基本概念和意义,对基于谱的图神经网络、基于空域的图神经网络和其他图神经网络三个类别进行了系统性介绍,同时总结了训练过程中常用的优化技术。其次,分析了图神经网络领域目前面临的可解释性问题的挑战,从而明确了研究目标。随后,阐述了图形神经网络的可解释性基本概念与基础理论,将其分类为实例级和模型级可解释性技术,并列出了评估图学习方法可解释性的度量指标。最后,在结语部分总结了本文的主要研究脉络,并对该领域的未来研究方向提出了建议。旨在介绍图神经网络的理论基础以及其在可解释性领域的研究。 展开更多
关键词 深度学习 图神经网络 应用与挑战 可解释性方法 可解释性度量 谱卷积 空域卷积
下载PDF
卷积神经网络的可解释性研究综述 被引量:1
3
作者 窦慧 张凌茗 +2 位作者 韩峰 申富饶 赵健 《软件学报》 EI CSCD 北大核心 2024年第1期159-184,共26页
神经网络模型性能日益强大,被广泛应用于解决各类计算机相关任务,并表现出非常优秀的能力,但人类对神经网络模型的运行机制却并不完全理解.针对神经网络可解释性的研究进行了梳理和汇总,就模型可解释性研究的定义、必要性、分类、评估... 神经网络模型性能日益强大,被广泛应用于解决各类计算机相关任务,并表现出非常优秀的能力,但人类对神经网络模型的运行机制却并不完全理解.针对神经网络可解释性的研究进行了梳理和汇总,就模型可解释性研究的定义、必要性、分类、评估等方面进行了详细的讨论.从解释算法的关注点出发,提出一种神经网络可解释算法的新型分类方法,为理解神经网络提供一个全新的视角.根据提出的新型分类方法对当前卷积神经网络的可解释方法进行梳理,并对不同类别解释算法的特点进行分析和比较.同时,介绍了常见可解释算法的评估原则和评估方法.对可解释神经网络的研究方向与应用进行概述.就可解释神经网络面临的挑战进行阐述,并针对这些挑战给出可能的解决方向. 展开更多
关键词 神经网络 可解释性 分类 深度学习
下载PDF
面向机器学习应用的可解释性需求分析框架
4
作者 裴忠一 刘璘 +1 位作者 王晨 王建民 《计算机研究与发展》 EI CSCD 北大核心 2024年第4期983-1002,共20页
基于大数据机器学习的智能软件研发过程需要综合运用软件工程、数据与领域知识工程、机器学习等多方面的知识和工具,涉及的研究主题和人员角色众多,技术实现手段复杂、研发难度大.面向智能软件的需求工程需要面对领域知识、业务知识、... 基于大数据机器学习的智能软件研发过程需要综合运用软件工程、数据与领域知识工程、机器学习等多方面的知识和工具,涉及的研究主题和人员角色众多,技术实现手段复杂、研发难度大.面向智能软件的需求工程需要面对领域知识、业务知识、数据科学交织带来的挑战.然而,如何将领域知识和端到端的机器学习技术恰当地融合到给定的业务流程之中,以及如何应对工业、医疗等高可信要求场景中的可解释性需求,仍是亟待探索的重要研究问题.调研了近年来面向机器学习应用的需求工程研究文献,对该领域的发展现状、核心问题和代表性方法进行综述.提出了面向机器学习应用的可解释性需求分析框架.基于该框架,通过一个工业智能应用案例分析了未来待研究的重要问题,展望了可行的研究路径. 展开更多
关键词 需求工程 机器学习 领域模型 工业工程 可解释性
下载PDF
内容感知的可解释性路面病害检测模型
5
作者 李傲 葛永新 +2 位作者 刘慧君 杨春华 周修庄 《计算机研究与发展》 EI CSCD 北大核心 2024年第3期701-715,共15页
针对实际场景中高分辨路面图像难以直接作为现有卷积神经网络(convolutional neural network,CNN)的输入、现有预处理及下采样算法无法有效感知并保留原始路面图像中低占比的病害区域信息等问题,借助于可视化解释的技术手段,设计了一种... 针对实际场景中高分辨路面图像难以直接作为现有卷积神经网络(convolutional neural network,CNN)的输入、现有预处理及下采样算法无法有效感知并保留原始路面图像中低占比的病害区域信息等问题,借助于可视化解释的技术手段,设计了一种即插即用的图像内容自适应感知模块(adaptive perception module,APM),既平衡了高分辨路面图像与CNN输入限制,又能够自适应感知激活前景病害区域,从而实现高分辨路面图像中病害类型的快速准确检测,构建可信路面病害视觉检测软件系统.APM利用大卷积核和下采样残差操作降低原始图像分辨率并获取图像浅层特征表示;通过注意力机制自适应感知并激活图像中路面病害区域信息,过滤无关的背景信息.利用联合学习的方式,无需额外监督信息完成对APM的训练.通过可视化解释方法辅助选择和设计APM的具体结构,在最新公开数据集CQUBPMDD上的实验结果表明:APM相比于现有的图像预处理采样算法均有明显提升,分类准确率最高为84.47%;在CQU-BPDD上的实验结果及APM决策效果可视化分析表明APM具备良好的泛化性与鲁棒性.实验代码已开源:https://github.com/Li-Ao-Git/apm. 展开更多
关键词 路面病害检测 可解释性 自适应感知 注意力机制 联合学习
下载PDF
考虑易用性和可解释性的自组织映射-即时学习风险预测框架
6
作者 马潇驰 陆建 +1 位作者 霍宗鑫 夏萧菡 《西安交通大学学报》 EI CAS CSCD 北大核心 2024年第5期212-220,共9页
为提高风险预测系统的易用性和可解释性,提出基于自组织映射网络(SOM)改进的即时学习(JITL)风险预测框架。首先,应用SOM对数据样本进行聚类,并对聚类特征进行解释。进而,通过基于聚类结果的样本选择算法构建待测数据的相似样本集,在线... 为提高风险预测系统的易用性和可解释性,提出基于自组织映射网络(SOM)改进的即时学习(JITL)风险预测框架。首先,应用SOM对数据样本进行聚类,并对聚类特征进行解释。进而,通过基于聚类结果的样本选择算法构建待测数据的相似样本集,在线上调用作为基学习器的支持向量机(SVM)进行建模并输出风险预测结果。最后,采用一个交通事故数据集对风险模型的性能进行测试,检验其精度、易用性和可解释性。结果表明:采用SOM-JITL策略的SVM模型,受试者工作状况曲线面积指标达到0.720,相比不使用该策略的传统SVM模型提高17.5%,精度较高;SOM-JITL模型构建所需参数调节工作少,具有较好的易用性;此外,SOM聚类结果准确识别出处于交通拥堵等高风险场景,与现实场景一致,具有可解释性。综上,SOM-JITL策略能有效提高基学习器的性能,达到精度、可解释性和易用性的平衡,有助于以低成本大规模推广风险预测系统。 展开更多
关键词 机器学习 风险预测 易用性 可解释性 即时学习 自组织映射
下载PDF
基于可解释性分析的深度神经网络优化方法
7
作者 吴欢欢 谢瑞麟 +2 位作者 乔塬心 陈翔 崔展齐 《计算机研究与发展》 EI CSCD 北大核心 2024年第1期209-220,共12页
近年来,深度神经网络(deep neural network,DNN)在众多领域取得了广泛应用,甚至在安全关键系统中已经可以代替人类作出决策,如自动驾驶和智慧医疗等,这对DNN的可靠性提出了更高的要求.由于DNN具有复杂的多层非线性网络结构,难以理解其... 近年来,深度神经网络(deep neural network,DNN)在众多领域取得了广泛应用,甚至在安全关键系统中已经可以代替人类作出决策,如自动驾驶和智慧医疗等,这对DNN的可靠性提出了更高的要求.由于DNN具有复杂的多层非线性网络结构,难以理解其内部预测机制,也很难对其进行调试.现有的DNN调试工作主要通过修改DNN的参数和扩增数据集提升DNN性能,以达到优化的目的.然而直接调整参数难以控制修改的幅度,甚至使模型失去对训练数据的拟合能力;而无指导地扩增训练数据则会大幅增加训练成本.针对此问题,提出了一种基于可解释性分析的DNN优化方法(optimizing DNN based on interpretability analysis,OptDIA).对DNN的训练过程及决策行为进行解释分析,根据解释分析结果,将原始数据中对DNN决策行为产生不同程度影响的部分以不同概率进行数据变换以生成新训练数据,并重训练DNN,以提升模型性能达到优化DNN的目的.在使用3个数据集训练的9个DNN模型上的实验结果表明,OptDIA可以将DNN的准确率提升0.39~2.15个百分点,F1-score提升0.11~2.03个百分点. 展开更多
关键词 深度神经网络 DNN优化 DNN缺陷 DNN性能 可解释性分析
下载PDF
算法可解释性的价值及其法治化路径 被引量:1
8
作者 王海燕 《重庆社会科学》 北大核心 2024年第1期120-135,共16页
随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳... 随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳入社会规范系统约束的关键理念,其实现程度对维护法治秩序和保护被决策主体的权益至关重要。当下实现算法可解释性的主要制度依托包括设置比例化的透明度不同程度地打开黑箱、构筑多方协同审查机制落实责任主体、制度化直观关系保证“人在回路”。这些举措的落脚点在于维护算法技术的内在善。 展开更多
关键词 算法决策 算法可解释性 正当程序 问责制 人类尊严
下载PDF
基于CatBoost-SHAP模型的滑坡易发性建模及可解释性
9
作者 曾韬睿 王林峰 +2 位作者 张俞 程平 吴帆 《中国地质灾害与防治学报》 CSCD 2024年第1期37-50,共14页
文章致力于深入探索滑坡易发性建模中集成学习模型的不确定性和可解释性。以浙江省东部沿海山区为研究对象,利用谷歌历史影像与Sentinel-2A影像,记录了2016年超级台风“鲇鱼”触发的552起浅层滑坡事件。研究首先对连续型因子进行了不分... 文章致力于深入探索滑坡易发性建模中集成学习模型的不确定性和可解释性。以浙江省东部沿海山区为研究对象,利用谷歌历史影像与Sentinel-2A影像,记录了2016年超级台风“鲇鱼”触发的552起浅层滑坡事件。研究首先对连续型因子进行了不分级、等间距法和自然断点法的工况设计,进一步划分为4,6,8,12,16,20级。随后,引入了类别增强提升树模型(CatBoost)以评估不同工况下的滑坡易发性值,再结合受试者曲线与沙普利加性解释法分析,对建模过程中的不确定性和可解释性进行了深入研究,目的在于确定最优建模策略。结果表明:(1)在CatBoost模型计算中,河流距离成为最关键的影响因子,其次是与地质条件、人类活动相关的因子;(2)不分级工况下,模型能够获得最高的AUC值,达到0.866;(3)相较于等间距法,自然断点法的划分策略展现出更佳的泛化能力,且模型预测性能随着分级数量的增加而增加;(4)沙普利加性解释法模型揭示了主要影响因子道路距离、河流距离、DEM和坡向对台风诱发滑坡的控制机制。研究成果能够加深对滑坡易发性的理解,提高滑坡预测的准确性和可靠性,为相关地区的防灾减灾工作提供科学依据。 展开更多
关键词 滑坡 易发性建模 可解释性 CatBoost模型 沙普利加性解释法模型 台风诱发滑坡
下载PDF
基于图卷积的离子液体CO_(2)溶解度可解释性预测
10
作者 张茜茜 陈平 《计算机技术与发展》 2024年第2期134-141,共8页
为构建离子液体的CO_(2)溶解度的准确预测模型,考虑到传统模型存在的描述符计算复杂、成本高、关联结构与性质困难、结构特征提取不充分等问题,提出一种融合了加入注意力机制的图卷积神经网络和XGBoost的预测模型(APGCN-XGBoost)。对9 ... 为构建离子液体的CO_(2)溶解度的准确预测模型,考虑到传统模型存在的描述符计算复杂、成本高、关联结构与性质困难、结构特征提取不充分等问题,提出一种融合了加入注意力机制的图卷积神经网络和XGBoost的预测模型(APGCN-XGBoost)。对9 897组离子液体的CO_(2)溶解度数据的分析结果显示,所提出的APGCN-XGBoost模型在预测性能上优于传统的分子指纹模型和图卷积神经网络模型。此外,通过注意力池化层与SHAP方法对模型进行解释,APGCN-XGBoost模型学习到了离子液体中各个原子和结构的特征信息与分子非局部信息,这些特征信息不仅可以用于性质预测,还可以用于探索化学结构与性质之间的联系,即通过模型的解释,筛选出对于溶解度预测重要的离子液体结构信息,从而实现CO_(2)捕获过程中理想离子液体的计算机辅助设计和筛选。 展开更多
关键词 图卷积神经网络 离子液体 性质预测 溶解度 可解释性
下载PDF
基于基准年的城市天然气预测管理可解释性探究
11
作者 李学亮 张应辉 仇晶 《城市燃气》 2024年第2期11-17,共7页
针对城市天然气用气负荷预测的可解释性问题,本文以北京地区为例,引入“基准年”概念,通过基于循环神经网络的控制变量法、线性回归预测等方式,对历年天然气消费量数据进行处理,实现对其中寒潮、阶段性升温、提前/延长采暖政策、制冷需... 针对城市天然气用气负荷预测的可解释性问题,本文以北京地区为例,引入“基准年”概念,通过基于循环神经网络的控制变量法、线性回归预测等方式,对历年天然气消费量数据进行处理,实现对其中寒潮、阶段性升温、提前/延长采暖政策、制冷需求等主要影响因素的趋势分析和成果量化,并成功引入箱线图法对还原后的天然气消费量数据异常值进行检测和刷选,辅助用量规律分析并量化确定出常态下的天然气年消费量值,结合自然发展、疫情影响等因素,用来指导未来城市天然气的年度用气量预测工作,有效提高预测精确度。 展开更多
关键词 负荷预测 可解释性 基准年 箱线图法 规律分析
下载PDF
基于知识图谱的多目标可解释性推荐
12
作者 杨孟 杨进 陈步前 《计算机与现代化》 2024年第3期34-40,46,共8页
现有的推荐系统研究大多集中在如何提高推荐的精度上,而忽略了推荐的可解释性。为了最大程度地提高用户对推荐项的满意度,提出一种基于知识图谱的多目标可解释性推荐模型,同时优化推荐的准确性、新颖性、多样性和可解释性。首先通过知... 现有的推荐系统研究大多集中在如何提高推荐的精度上,而忽略了推荐的可解释性。为了最大程度地提高用户对推荐项的满意度,提出一种基于知识图谱的多目标可解释性推荐模型,同时优化推荐的准确性、新颖性、多样性和可解释性。首先通过知识图谱得到用户可解释的候选列表,并利用统一的方法以目标用户的交互项和推荐项之间的路径作为解释依据对推荐的可解释性进行量化,最后通过多目标优化算法对可解释的候选列表进行优化,得到最终的推荐列表。在Movielens和Epinions数据集上的实验结果表明,本文所提出的模型可以在不降低准确性、新颖性和多样性的情况下提高推荐的可解释能力。 展开更多
关键词 知识图谱 推荐系统 可解释性 多目标优化
下载PDF
基于可解释性人工智能的软件工程技术探究
13
作者 王晶昱 《家电维修》 2024年第5期65-67,共3页
人工智能的可解释性是影响人工智能进一步发展的关键阻碍,深受各个领域研究人员的关注。将人工智能应用于软件工程技术能有效解决大量复杂问题,但神经网络本身并不具备推理能力,提高人工智能的可解释性,对软件工程技术的进一步突破起着... 人工智能的可解释性是影响人工智能进一步发展的关键阻碍,深受各个领域研究人员的关注。将人工智能应用于软件工程技术能有效解决大量复杂问题,但神经网络本身并不具备推理能力,提高人工智能的可解释性,对软件工程技术的进一步突破起着关键作用。基于此,本文分析了可解释性人工智能的相关概念,以及可解释性人工智能在软件工程技术中的主要应用方向,并提出它的未来发展方向,以期推动人工智能软件工程技术的发展。 展开更多
关键词 可解释性 人工智能 软件工程 技术研究
下载PDF
图片分类的卷积神经网络可解释性分析
14
作者 方浩澎 《电脑与信息技术》 2024年第1期4-6,36,共4页
为了理解卷积神经网络在图片分类任务中做出决策的依据,进而优化模型,降低调参成本,对卷积神经网络进行可解释性分析是十分有必要的。为此,文章以水果图片分类任务为切入点,使用了多种类激活图,从多个角度分析模型所给出结果的原因。文... 为了理解卷积神经网络在图片分类任务中做出决策的依据,进而优化模型,降低调参成本,对卷积神经网络进行可解释性分析是十分有必要的。为此,文章以水果图片分类任务为切入点,使用了多种类激活图,从多个角度分析模型所给出结果的原因。文章采用Res Net模型先进行微调,在取得较好的分类性能后,进行了语义特征的基础分析、遮挡性分析,以及基于CAM的可解释性分析和LIME可解释性分析,为卷积神经网络提供一定的可解释性。实验结果表明,卷积神经网络做出决策的依据与人类理解的语义是一致的。 展开更多
关键词 图片分类 卷积神经网络 可解释性 类激活图
下载PDF
强化学习可解释性基础问题探索和方法综述 被引量:8
15
作者 刘潇 刘书洋 +1 位作者 庄韫恺 高阳 《软件学报》 EI CSCD 北大核心 2023年第5期2300-2316,共17页
强化学习是一种从试错过程中发现最优行为策略的技术,已经成为解决环境交互问题的通用方法.然而,作为一类机器学习算法,强化学习也面临着机器学习领域的公共难题,即难以被人理解.缺乏可解释性限制了强化学习在安全敏感领域中的应用,如... 强化学习是一种从试错过程中发现最优行为策略的技术,已经成为解决环境交互问题的通用方法.然而,作为一类机器学习算法,强化学习也面临着机器学习领域的公共难题,即难以被人理解.缺乏可解释性限制了强化学习在安全敏感领域中的应用,如医疗、驾驶等,并导致强化学习在环境仿真、任务泛化等问题中缺乏普遍适用的解决方案.为了克服强化学习的这一弱点,涌现了大量强化学习可解释性(explainable reinforcement learning,XRL)的研究.然而,学术界对XRL尚缺乏一致认识.因此,探索XRL的基础性问题,并对现有工作进行综述.具体而言,首先探讨父问题——人工智能可解释性,对人工智能可解释性的已有定义进行了汇总;其次,构建一套可解释性领域的理论体系,从而描述XRL与人工智能可解释性的共同问题,包括界定智能算法和机械算法、定义解释的含义、讨论影响可解释性的因素、划分解释的直观性;然后,根据强化学习本身的特征,定义XRL的3个独有问题,即环境解释、任务解释、策略解释;之后,对现有方法进行系统地归类,并对XRL的最新进展进行综述;最后,展望XRL领域的潜在研究方向. 展开更多
关键词 强化学习可解释性(XRL) 人工智能可解释性(XAI) 机器学习(ML) 人工智能(AI)
下载PDF
人工智能可解释性:发展与应用 被引量:2
16
作者 王冬丽 杨珊 +2 位作者 欧阳万里 李抱朴 周彦 《计算机科学》 CSCD 北大核心 2023年第S01期9-15,共7页
近年来人工智能在诸多领域和学科中的广泛应用展现出了其卓越的性能,这种性能的提升通常需要牺牲模型的透明度来获取。然而,人工智能模型的复杂性和黑盒性质已成为其应用于高风险领域最主要的瓶颈,这严重阻碍了人工智能在特定领域的进... 近年来人工智能在诸多领域和学科中的广泛应用展现出了其卓越的性能,这种性能的提升通常需要牺牲模型的透明度来获取。然而,人工智能模型的复杂性和黑盒性质已成为其应用于高风险领域最主要的瓶颈,这严重阻碍了人工智能在特定领域的进一步应用。因此,亟需提高模型的可解释性,以证明其可靠性。为此,从机器学习模型可解释性、深度学习模型可解释性、混合模型可解释性3个方面对人工智能可解释性研究的典型模型和方法进行了介绍,进一步讲述了可解释人工智能在教学分析、司法判案、医疗诊断3个领域的应用情况,并对现有可解释方法存在的不足进行总结与分析,提出人工智能可解释性未来的发展趋势,希望进一步推动可解释性研究的发展与应用。 展开更多
关键词 人工智能 机器学习 深度学习 可解释性
下载PDF
医疗领域中人工智能应用的可解释性困境与治理 被引量:5
17
作者 张姝艳 皮婷婷 《医学与哲学》 北大核心 2023年第3期25-29,35,共6页
人工智能在医疗领域的应用,推动了医疗事业的发展,但人工智能作为新生事物,其可解释性成为医疗领域面临的重大挑战,导致人工智能难以有效在医疗领域广泛应用。阐述了增强人工智能在医疗领域可解释性的原因,浅析人工智能在医疗领域中的... 人工智能在医疗领域的应用,推动了医疗事业的发展,但人工智能作为新生事物,其可解释性成为医疗领域面临的重大挑战,导致人工智能难以有效在医疗领域广泛应用。阐述了增强人工智能在医疗领域可解释性的原因,浅析人工智能在医疗领域中的可解释性困境,指出提高医疗领域人工智能可解释性的要求,以避免出现医疗事故定责不清、医疗数据隐私泄露、诊疗决策与患者信任相悖、患者医疗公平上的困境等诸多问题。为提高医疗领域中人工智能的可解释性,提出了健全医疗事故法律问责机制、培养医疗数据伦理观、加强医疗监督治理、防止医疗人工智能歧视等路径,以便推动人工智能在医疗领域的深入发展。 展开更多
关键词 人工智能 可解释性 医疗领域 智能医疗
下载PDF
基于ResNet的可解释性计算机视觉模型在内镜下内痔评估中的应用 被引量:1
18
作者 刘璐 林嘉希 +4 位作者 朱世祺 高静雯 刘晓琳 许春芳 朱锦舟 《现代消化及介入诊疗》 2023年第8期972-975,980,共5页
目的为克服深度学习模型黑盒不可解释的缺点,本研究旨在探讨可解释性计算机视觉模型在内镜下内痔诊断及危险分级中的应用。方法收集苏州大学附属第一医院内镜中心的肛齿状线上倒镜图片,分为内痔组和正常组;根据LDRf分级标准,对内痔组进... 目的为克服深度学习模型黑盒不可解释的缺点,本研究旨在探讨可解释性计算机视觉模型在内镜下内痔诊断及危险分级中的应用。方法收集苏州大学附属第一医院内镜中心的肛齿状线上倒镜图片,分为内痔组和正常组;根据LDRf分级标准,对内痔组进一步分级为Rf0、Rf1及Rf2三组。针对有无内痔、红色征、糜烂、血栓及活动性出血,构建基于ResNet50V2的可解释化模型,并利用江苏大学附属金坛医院内镜中心的内镜图片进行外部验证。使用准确性、敏感性、特异性以及F1值等指标对比可解释化模型与传统深度学习黑盒模型的表现,并与两位不同年资内镜医生进行比较。结果ResNet可解释化模型的准确性为0.957、敏感性为0.978、特异性为0.974,F1值为0.958,其准确性高于黑盒模型的0.938,高年资内镜医生的0.933及低年资医生的0.907。此外,模型采用Grad-CAM方法突出图像中对模型推理依据的区域。结论本研究通过收集内镜下肛齿状线上倒镜图像,构建可解释化计算机视觉模型并进行外部验证,提示该模型在内镜下内痔诊断与评级中表现优于传统深度学习黑盒模型。该模型在未来临床内镜诊疗中具有良好应用前景。 展开更多
关键词 可解释性 深度学习 内痔 消化内镜 LDRf分级 梯度加权分类激活映射
下载PDF
基于可解释性机器学习的ECD敏感性分析与预测技术
19
作者 马磊 周波 +4 位作者 张宁俊 杨恒 蔡新树 刘征 徐同台 《钻井液与完井液》 CAS 北大核心 2023年第5期563-570,共8页
当量钻井液循环密度(ECD)计算过于繁琐耗时,且其敏感性规律尚未得到明确认识。为此,采用ProHydraulic软件对克深区带的1928个数据点进行分析,以确定ECD的理论值,并建立了相关的特征参数。同时,利用可解释性机器学习方法SHAP对钻井液特... 当量钻井液循环密度(ECD)计算过于繁琐耗时,且其敏感性规律尚未得到明确认识。为此,采用ProHydraulic软件对克深区带的1928个数据点进行分析,以确定ECD的理论值,并建立了相关的特征参数。同时,利用可解释性机器学习方法SHAP对钻井液特性、钻进参数和环空容积等关键因素进行了敏感性分析。最终,利用线性回归构建克深区带计算ECD的经验公式,涵盖了12个主要特征参数。结果表明,该模型表现优异,测试集决定系数达到0.963,平均绝对误差仅为0.04,为实际工程应用推出了简明、高效的经验公式。 展开更多
关键词 ECD 敏感性分析 可解释性机器学习 线性回归模型
下载PDF
来自大别山深成侵入岩图像深度迁移学习的可解释性研究
20
作者 陈忠良 袁峰 +1 位作者 李晓晖 郑超杰 《地质论评》 CAS CSCD 北大核心 2023年第6期2263-2273,共11页
岩石图像识别是以深度学习为代表的感知智能在地质领域的典型应用场景。已有研究显示网络结构简单的深度卷积神经网络能够在岩石图像上取得比复杂网络结构高的分类准确率。这与ImageNet数据集上网络结构越深越好的趋势相悖。如何解释这... 岩石图像识别是以深度学习为代表的感知智能在地质领域的典型应用场景。已有研究显示网络结构简单的深度卷积神经网络能够在岩石图像上取得比复杂网络结构高的分类准确率。这与ImageNet数据集上网络结构越深越好的趋势相悖。如何解释这一现象?深成侵入岩为显晶质,自形—半自形粒状结构,块状构造,其分类的依据是其矿物成分及相对含量。大别山地区岩浆活动广泛,中生代深成侵入岩广泛出露。岩石类型包括超镁铁质岩类、辉长岩类、闪长岩类、正长岩类、二长岩类和花岗岩类,基本覆盖IUGS推荐的深成侵入岩分类方案中的岩石类型。选取大别山地区中生代深成岩图像开展不同网络结构预训练模型迁移学习对比试验,能够专注于深度学习对矿物成分特征的学习解释,降低构造因素的影响。借助局部可理解的模型解释技术和特征图可视化技术,分别从全连接层分类决策区域可视化和卷积隐层可视化两方面对深度学习模型开展可解释性研究。结果表明简单网络结构的卷积神经网络能够提取不同矿物所表现出的颜色特征以及不同矿物组合所表现出的纹理特征。AlexNet模型的削减试验进一步证明:对于岩石图像深度学习,网络结构并不总是越深越好。 展开更多
关键词 深度学习 岩性识别 可解释性 特征图可视化 局部可理解的模型解释
下载PDF
上一页 1 2 29 下一页 到第
使用帮助 返回顶部