期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于分类不确定性最小化的半监督集成学习算法 被引量:1
1
作者 何玉林 朱鹏辉 +1 位作者 黄哲学 fournier-viger philippe 《计算机科学》 CSCD 北大核心 2023年第10期88-95,共8页
半监督集成是将半监督学习与集成学习相结合的一种学习范式,它一方面通过无标记样本来提高集成学习的多样性,同时解决集成学习样本量不足的问题,另一方面集成多个分类器能够进一步提升半监督学习模型的性能。现有的研究从理论和实践两... 半监督集成是将半监督学习与集成学习相结合的一种学习范式,它一方面通过无标记样本来提高集成学习的多样性,同时解决集成学习样本量不足的问题,另一方面集成多个分类器能够进一步提升半监督学习模型的性能。现有的研究从理论和实践两个角度证明了半监督学习与集成学习之间的互益性。针对当前半监督集成学习算法对无标记样本信息利用不完全的缺陷,文中提出了一种新的基于分类不确定性最小化的半监督集成学习(Classification Uncertainty Minimization-Based Semi-Supervised Ensemble Learning,CUM-SSEL)算法,它引入信息熵作为对无标记样本进行打标的置信度评判标准,通过最小化无标记样本打标过程中的不确定性迭代地训练分类器,实现对无标记样本的高效利用,以增强分类器的泛化性能。在标准的实验数据集上对CUM-SSEL算法的可行性、合理性和有效性进行了验证,实验表明:随着基分类器的增加,CUM-SSEL算法的训练呈现收敛的趋势,同时它能够获得优于Self-Training,Co-Training,Tri-Training,Semi-Boost,Vote-Training,Semi-Bagging以及CST-Voting算法的分类精度。 展开更多
关键词 半监督集成学习 集成学习 半监督学习 分类不确定性 置信度 信息熵
下载PDF
基于统计感知策略的高斯混合模型求解方法 被引量:1
2
作者 陈佳琪 何玉林 +1 位作者 黄哲学 fournier-viger philippe 《数据采集与处理》 CSCD 北大核心 2023年第3期525-538,共14页
高斯混合模型(Gaussian mixture model,GMM)是一种经典的概率模型,常被用于无监督学习领域来确定无类别标记样本点的类别分布。作为求解GMM参数的重要技术,期望最大化(Expectation maximization,EM)算法通过计算GMM对应似然函数的最优... 高斯混合模型(Gaussian mixture model,GMM)是一种经典的概率模型,常被用于无监督学习领域来确定无类别标记样本点的类别分布。作为求解GMM参数的重要技术,期望最大化(Expectation maximization,EM)算法通过计算GMM对应似然函数的最优解确定基模型自身参数以及基模型的混合系数。利用EM算法求解GMM存在如下两个缺陷:EM算法易于陷入局部最优解以及EM算法确定GMM基模型相关参数的不稳定,尤其是针对多维随机变量。本文提出了一种基于统计感知(Statistical⁃aware,SA)策略的GMM求解方法——SA⁃GMM方法。该方法从估计给定数据集的未知概率密度函数入手,建立了核密度估计(Kernel density estimation,KDE)与GMM之间的关联。为避免KDE对“过平滑”窗口的选取,设计了同时最小化KDE与GMM之间的经验风险和KDE窗口结构风险的目标函数,进而确定了GMM的最优参数。在11个标准概率分布上的实验证明了SA⁃GMM方法的可行性、合理性和有效性,同时结果也表明SA⁃GMM能够获得显著优于基于EM算法的GMM及其变体的概率密度函数估计表现。 展开更多
关键词 高斯混合模型 概率密度函数估计 统计感知 经验风险 结构风险 粒子群优化
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部