针对目前红外与可见光图像融合算法中由于源图像信息特征不同而产生的全局结构和细节信息无法保留等问题,提出一种基于低秩稀疏分解(Low-rank Sparse Decomposition,LRSD)的红外与可见光图像融合方法。该方法通过最优方向选择(Method of...针对目前红外与可见光图像融合算法中由于源图像信息特征不同而产生的全局结构和细节信息无法保留等问题,提出一种基于低秩稀疏分解(Low-rank Sparse Decomposition,LRSD)的红外与可见光图像融合方法。该方法通过最优方向选择(Method of Optimal Directions,MOD)、K奇异值分解(K-Singular Value Decomposition,K-SVD)和背景字典3种字典学习方法构造字典,并采用低秩表示(Low-rank Represention,LRR)对源图像分解得到低秩部分和稀疏细节部分,其中低秩部分保留了源图像的全局结构,稀疏部分突出了源图像的局部结构和细节信息。在融合过程中,对低秩部分和稀疏部分分别采用加权平均与l_(2)-l_(1)范数约束策略进行融合,保留了全局对比度和像素强度。实验结果表明,与经典融合算法相比,提出的方法在图像视觉效果和定量评价指标方面有显著提升。采用MOD和K-SVD方法进行字典训练,得到的融合图像在定量评价指标互信息(Mutual Information,MI)、结构相似度(Structural Similarity Index,SSIM)、视觉信息保真度(Visual Information Fidelity,VIF)、标准差(Standard Deviation,SD)和峰值信噪比(Peak Signal to Noise Ratio,PSNR)上分别提高了约6%、27%、9.6%、2.4%和3.4%;采用背景字典方法进行字典训练,得到的融合图像在定量评价指标MI、SSIM、SD、均方误差(Mean Squared Error,MSE)、PSNR上分别提高了约23%、29%、1.2%、33%和4.5%。展开更多
文摘针对目前红外与可见光图像融合算法中由于源图像信息特征不同而产生的全局结构和细节信息无法保留等问题,提出一种基于低秩稀疏分解(Low-rank Sparse Decomposition,LRSD)的红外与可见光图像融合方法。该方法通过最优方向选择(Method of Optimal Directions,MOD)、K奇异值分解(K-Singular Value Decomposition,K-SVD)和背景字典3种字典学习方法构造字典,并采用低秩表示(Low-rank Represention,LRR)对源图像分解得到低秩部分和稀疏细节部分,其中低秩部分保留了源图像的全局结构,稀疏部分突出了源图像的局部结构和细节信息。在融合过程中,对低秩部分和稀疏部分分别采用加权平均与l_(2)-l_(1)范数约束策略进行融合,保留了全局对比度和像素强度。实验结果表明,与经典融合算法相比,提出的方法在图像视觉效果和定量评价指标方面有显著提升。采用MOD和K-SVD方法进行字典训练,得到的融合图像在定量评价指标互信息(Mutual Information,MI)、结构相似度(Structural Similarity Index,SSIM)、视觉信息保真度(Visual Information Fidelity,VIF)、标准差(Standard Deviation,SD)和峰值信噪比(Peak Signal to Noise Ratio,PSNR)上分别提高了约6%、27%、9.6%、2.4%和3.4%;采用背景字典方法进行字典训练,得到的融合图像在定量评价指标MI、SSIM、SD、均方误差(Mean Squared Error,MSE)、PSNR上分别提高了约23%、29%、1.2%、33%和4.5%。
基金国家高技术研究发展计划( 863)( the National High-Tech Research and Development Plan of China under Grant No.2005AA121620, No.2006AA01Z232)贵州省教育厅自然科学研究重点项目基金( No.2007056)