期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
一种随机嵌入抗SPAM检测的可逆数据隐藏算法 被引量:5
1
作者 柳玲 陈同孝 +1 位作者 曹晨 陈玉明 《计算机应用研究》 CSCD 北大核心 2013年第7期2111-2114,共4页
针对数据隐藏算法在携带信息时容易被检测工具SPAM侦测出来这一现象,将随机嵌入和直方图修正技术应用到数据隐藏中,提出一种随机嵌入抗SPAM检测的可逆数据隐藏算法。该方法通过对采样子图与参照子图间的差值直方图进行平移空位来嵌入信... 针对数据隐藏算法在携带信息时容易被检测工具SPAM侦测出来这一现象,将随机嵌入和直方图修正技术应用到数据隐藏中,提出一种随机嵌入抗SPAM检测的可逆数据隐藏算法。该方法通过对采样子图与参照子图间的差值直方图进行平移空位来嵌入信息。在信息嵌入过程中,用随机函数产生的伪随机序列来标志待隐藏信息的位置,使嵌入的信息分布更不规律,从而更好地逃脱检测工具SPAM的侦测。实验结果表明,相比Kim算法,该算法抗SPAM检测的安全性更好,更适合进行信息传递。 展开更多
关键词 随机嵌入 SPAM 可逆数据隐藏 直方图修正 子图采样
下载PDF
基于矩阵分割及奇偶交错嵌入的可逆数据隐藏算法
2
作者 柳玲 吴克寿 +1 位作者 陈同孝 曹锋 《计算机应用与软件》 CSCD 北大核心 2013年第12期35-39,共5页
嵌入容量、图像视觉质量及不可检测性是衡量数据隐藏算法性能的重要指标。针对Ni等人提出的算法嵌入容量有限、安全性弱等问题,将矩阵分割技术及奇偶交错嵌入方式应用到数据隐藏领域中,提出一种简单、有效的可逆数据隐藏算法。该算法首... 嵌入容量、图像视觉质量及不可检测性是衡量数据隐藏算法性能的重要指标。针对Ni等人提出的算法嵌入容量有限、安全性弱等问题,将矩阵分割技术及奇偶交错嵌入方式应用到数据隐藏领域中,提出一种简单、有效的可逆数据隐藏算法。该算法首先将图像矩阵分割为四部分,构建每部分的灰阶直方图,然后利用峰值集合中的像素来嵌入信息,由于增加了峰值集合中像素的数目,从而提高了嵌入容量。信息嵌入时,采用奇偶交错嵌入的方式,使得信息分布更不规律,从而增加了不可检测性。实验结果表明,相比Ni的算法,该算法在保证视觉质量的基础上,嵌入容量和不可检测性均有较大的提高。 展开更多
关键词 可逆数据隐藏 矩阵分割 奇偶交错嵌入 灰阶直方图 直方'图平移
下载PDF
SPAM数据挖掘Kim算法的隐写分析
3
作者 柳玲 陈同孝 +2 位作者 朱顺痣 曹晨 洪炜冬 《哈尔滨理工大学学报》 CAS 2013年第4期31-36,共6页
隐写分析的目的主要是判断数字载体是否嵌有秘密信息.为了研究Kim等人提出的可逆数据隐藏算法的隐写性,用SPAM伪装分析器对其进行了隐写分析.实验中,选取RSP图库中5 000张大小为512×512的8位灰阶图像,对算法设置不同嵌入等级和采... 隐写分析的目的主要是判断数字载体是否嵌有秘密信息.为了研究Kim等人提出的可逆数据隐藏算法的隐写性,用SPAM伪装分析器对其进行了隐写分析.实验中,选取RSP图库中5 000张大小为512×512的8位灰阶图像,对算法设置不同嵌入等级和采样间隔,以7种藏量来测试其抗SPAM检测的情况.最后,给出不同参数下算法抗SPAM检测变化的规律.实验结果表明,一般情况下,Kim等人提出的算法抗SPAM检测的平均错误率为0.88~21.00%,在嵌入等级较大时,抗SPAM检测的错误率可达30%以上,为以该算法作为载体来进行消息传递提供了参考. 展开更多
关键词 可逆数据隐藏 SPAM 隐写分析
下载PDF
Combined Density-based and Constraint-based Algorithm for Clustering 被引量:1
4
作者 陈同孝 陈荣昌 +1 位作者 林志强 邱永兴 《Journal of Donghua University(English Edition)》 EI CAS 2006年第6期36-38,61,共4页
We propose a new clustering algorithm that assists the researchers to quickly and accurately analyze data. We call this algorithm Combined Density-based and Constraint-based Algorithm (CDC). CDC consists of two phases... We propose a new clustering algorithm that assists the researchers to quickly and accurately analyze data. We call this algorithm Combined Density-based and Constraint-based Algorithm (CDC). CDC consists of two phases. In the first phase, CDC employs the idea of density-based clustering algorithm to split the original data into a number of fragmented clusters. At the same time, CDC cuts off the noises and outliers. In the second phase, CDC employs the concept of K-means clustering algorithm to select a greater cluster to be the center. Then, the greater cluster merges some smaller clusters which satisfy some constraint rules. Due to the merged clusters around the center cluster, the clustering results show high accuracy. Moreover, CDC reduces the calculations and speeds up the clustering process. In this paper, the accuracy of CDC is evaluated and compared with those of K-means, hierarchical clustering, and the genetic clustering algorithm (GCA) proposed in 2004. Experimental results show that CDC has better performance. 展开更多
关键词 K-MEANS Hierarchical clustering Density-based clustering Constraint-based clustering.
下载PDF
欺诈网页检测中基于遗传算法的特征优选 被引量:8
5
作者 王嘉卿 朱焱 +1 位作者 陈同孝 张真诚 《计算机应用》 CSCD 北大核心 2018年第1期295-299,共5页
针对网页欺诈检测中特征的高维、冗余问题,提出一个基于信息增益和遗传算法的改进特征选择算法(IFS-BIGGA)。首先,通过信息增益(IG)给出特征重要性排序,设定动态阈值减少冗余特征;其次,改进遗传算法(GA)中染色体编码函数和选择算子,并... 针对网页欺诈检测中特征的高维、冗余问题,提出一个基于信息增益和遗传算法的改进特征选择算法(IFS-BIGGA)。首先,通过信息增益(IG)给出特征重要性排序,设定动态阈值减少冗余特征;其次,改进遗传算法(GA)中染色体编码函数和选择算子,并结合随机森林(RF)的受试者工作特征曲线面积(AUC)作为适应度函数,选择高辨识度特征;最后,增加实验迭代次数避免算法随机性,产生最佳最小的特征集合(OMFS)。实验验证表明,应用IFS-BIGGA生成的OMFS与高维特征集合相比,尽管RF下的AUC减小了2%,但是真阳性率(TPR)提高了21%,并且特征维度减少了92%;同时多个常用分类器的平均检测时间减少了83%;另外,IFS-BIGGA的F1值相比传统的遗传算法(TGA)和帝国主义竞争算法(ICA)分别提高了4.2%和3.5%。实验结果表明,IFS-BIGGA可以进行高效特征降维,在实际的网页检测工程中,有效减少计算代价,提高检测效率。 展开更多
关键词 特征选择 遗传算法 信息增益 随机森林算法 欺诈网页检测
下载PDF
基于卷积神经网络和代价敏感的不平衡图像分类方法 被引量:7
6
作者 谭洁帆 朱焱 +1 位作者 陈同孝 张真诚 《计算机应用》 CSCD 北大核心 2018年第7期1862-1865,1871,共5页
针对不平衡图像分类中少数类查全率低、分类结果总代价高,以及人工提取特征主观性强而且费时费力的问题,提出了一种基于Triplet-sampling的卷积神经网络(Triplet-sampling CNN)和代价敏感支持向量机(CSSVM)的不平衡图像分类方法——Trip... 针对不平衡图像分类中少数类查全率低、分类结果总代价高,以及人工提取特征主观性强而且费时费力的问题,提出了一种基于Triplet-sampling的卷积神经网络(Triplet-sampling CNN)和代价敏感支持向量机(CSSVM)的不平衡图像分类方法——Triplet-CSSVM。该方法将分类过程分为特征学习和代价敏感分类两部分。首先,利用误差公式为三元损失函数的卷积神经网络端对端地学习将图像映射到欧几里得空间的编码方法;然后,结合采样方法重构数据集,使其分布平衡化;最后,使用CSSVM分类算法给不同类别赋以不同的代价因子,获得最佳代价最小的分类结果。在深度学习框架Caffe上使用人像数据集FaceScrub进行实验。实验结果表明,所提方法在1∶3的不平衡率下,与VGGNet-SVM方法相比,少数类的精确率提高了31个百分点,召回率提高了71个百分点。 展开更多
关键词 卷积神经网络 代价敏感 图像分类 数据平衡 支持向量机
下载PDF
Predicting and Classifying User Identification Code System Based on Support Vector Machines
7
作者 陈民枝 陈荣昌 +1 位作者 梁倩华 陈同孝 《Journal of Donghua University(English Edition)》 EI CAS 2007年第2期280-283,共4页
In digital fingerprinting, preventing piracy of images by colluders is an important and tedious issue. Each image will be embedded with a unique User IDentification (UID) code that is the fingerprint for tracking th... In digital fingerprinting, preventing piracy of images by colluders is an important and tedious issue. Each image will be embedded with a unique User IDentification (UID) code that is the fingerprint for tracking the authorized user. The proposed hiding scheme makes use of a random number generator to scramble two copies of a UID, which will then be hidden in the randomly selected medium frequency coefficients of the host image. The linear support vector machine (SVM) will be used to train classifications by calculating the normalized correlation (NC) for the 2class UID codes. The trained classifications will be the models used for identifying unreadable UID codes. Experimental results showed that the success of predicting the unreadable UID codes can be increased by applying SVM. The proposed scheme can be used to provide protections to intellectual property rights of digital images aad to keep track of users to prevent collaborative piracies. 展开更多
关键词 WATERMARK Support Vector Machines SVMs )User IDentification (UID) code COLLUSION
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部