摘要
目前很多数据挖掘和机器学习方法都有一个基本假设:训练数据和测试数据必须服从相同的分布。但是在很多情况下这种假设不成立,没有考虑分布差异的传统机器学习方法就不能正确分类了。提出了一种新的迁移学习方法DRTAT,对原训练数据进行动态分割重组,适时地淘汰冗余数据,并进行分类器的集成。通过在多个文本数据集和UCI数据集上进行测试,并与TrAdaboost算法进行比较,表明了算法的先进性。
There is a basic assumption in many existing data mining and machine learning techniques,that training and test data must be governed by the same distribution.However,this assumption does not hold in many cases,then traditional machine learning methods not aware of the difference of distribution may fail.This paper proposes a novel transfer-learning algorithm called DRTAT,which dynamically regroups the primary training data sets and eliminates the redundancy data timely,then makes classifiers ensemble.The experiments are performed on many text data sets and the UCI benchmark data sets,and DRTAT is compared with TrAdaboost algorithm,the results show the superiority of DRTAT.
出处
《计算机工程与应用》
CSCD
北大核心
2010年第12期126-128,共3页
Computer Engineering and Applications
基金
山东省中青年科学家科研奖励基金(博士基金)(No.2006BS01020)
山东省高新技术自主创新工程专项计划(No.2007ZZ17)
山东省自然科学基金No.Y2007G16
山东省科技攻关计划No.2008GG10001015
山东省教育厅科技计划项目No.J07YJ04~~
关键词
分布差异
知识迁移
动态数据集重组
冗余数据淘汰
分类器集成
distribution difference
knowledge transfer
dynamic dataset regroup
eliminating the redundancy data
classifier ensemble